Introduction
These days, launching a Dedicated Chatbot On a private server is more attractive than ever, both for economic reasons and security concerns. Large cloud services like AWS or Google Cloud are great, but their costs can be prohibitive, especially for small or test projects.
We decided on a cheap server from Hetzner Let's take a look at the experience of setting up a Chatbot. In this article, we will explain in detail what steps we took from choosing a server to the final implementation, what problems we encountered, and how we solved them.
Why did we choose Hetzner?
1. Affordable cost
Hetzner is one of the cheapest European providers in terms of price. For example, a server with 4 CPU cores and 8 GB of RAM costs around 6 euros per month It costs money.
2. Quality and sustainability
Hetzner's German and Finnish data centers are very stable and fast, and have acceptable latency even for Iranian user traffic.
3. Hardware diversity
From small VPS to dedicated servers with powerful GPUs, you can choose according to your needs and budget.
Steps to set up a Chatbot on Hetzner
Step 1: Choose an operating system
We installed Ubuntu 22.04 LTS. This version is both lightweight and has the most support for AI-related tools.
Step 2: Install basic tools
After logging into the server, you need to install Python and the required tools:
sudo apt update && sudo apt upgrade -y
sudo apt install python3-pip git -y
pip install transformers accelerate fastapi uvicornگام سوم: انتخاب مدل Chatbot
برای شروع، مدلهای آماده روی Hugging Face بهترین گزینه هستند. ما از مدل DialoGPT-medium استفاده کردیم. این مدل روی CPU هم اجرا میشود و برای تست کافی است.
گام چهارم: ساخت API ساده
با استفاده از FastAPI، یک API ساده برای ارسال پیام و دریافت پاسخ ساختیم:
from transformers import AutoModelForCausalLM, AutoTokenizer
from fastapi import FastAPI
app = FastAPI()
tokenizer = AutoTokenizer.from_pretrained("microsoft/DialoGPT-medium")
model = AutoModelForCausalLM.from_pretrained("microsoft/DialoGPT-medium")
@app.get("/chat")
def chat(msg: str):
inputs = tokenizer.encode(msg + tokenizer.eos_token, return_tensors="pt")
outputs = model.generate(inputs, max_length=1000, pad_token_id=tokenizer.eos_token_id)
reply = tokenizer.decode(outputs[:, inputs.shape[-1]:][0], skip_special_tokens=True)
return {"reply": reply}گام پنجم: اجرای سرویس
API را با دستور زیر اجرا کنید:
uvicorn main:app --host 0.0.0.0 --port 8000حالا کافی است مرورگر یا ابزار curl را باز کنید:
curl "http://your-server-ip:8000/chat?msg=سلام"پرسشهای رایج (FAQ)
آیا بدون GPU میشود Chatbot اجرا کرد؟
بله، اما سرعت پاسخدهی کمتر خواهد بود. برای مدلهای سبک (مثل DialoGPT یا GPT2 کوچک) CPU کافی است. اگر قصد دارید مدلهای سنگینتر مثل LLaMA یا Falcon را اجرا کنید، حتماً نیاز به GPU دارید.
چطور سرور را امن کنیم؟
همیشه
ufwیا فایروال فعال کنید.دسترسی به SSH را محدود کنید.
از SSL برای API استفاده کنید.
اگر ترافیک زیاد شد چه کنیم؟
Hetzner امکان ارتقا سختافزار یا مهاجرت به سرور GPUدار را فراهم کرده است. همچنین میتوانید Load Balancing پیادهسازی کنید.
آیا میتوان Chatbot را در تلگرام یا واتساپ استفاده کرد؟
بله. کافی است API ساختهشده را به Botهای تلگرام یا سایر پلتفرمها متصل کنید.
تجربه عملی ما
در طول این مسیر با چند چالش روبهرو شدیم:
در اولین تستها، پاسخ مدل کمی کند بود. با کاهش سایز مدل و بهینهسازی پارامترهای
generateسرعت بهتر شد.مدیریت منابع روی سرور کوچک مهم است؛ اگر چند سرویس همزمان اجرا کنید، RAM پر میشود. ما با استفاده از Docker توانستیم منابع را مدیریت کنیم.
جمعبندی
راهاندازی یک Chatbot اختصاصی روی سرور ارزان Hetzner نهتنها شدنی است، بلکه تجربهای عالی برای یادگیری و تست پروژههای هوش مصنوعی محسوب میشود. اگر بهدنبال هزینه پایین، آزادی عمل و کنترل کامل هستید، این روش گزینهای ایدهآل است.









