Wprowadzenie: ChatGPT – zaawansowany model językowy od OpenAI – może znacząco wzbogacić możliwości chatbotów na popularnych platformach komunikacyjnych, takich jak WhatsApp i Telegram. Integracja ChatGPT z botem WhatsApp lub Telegram pozwala na automatyzację obsługi użytkowników za pomocą AI (sztucznej inteligencji) i tworzenie interaktywnych asystentów działających 24/7. Taki bot może odpowiadać na pytania klientów, prowadzić konwersacje w wielu językach i odciążyć działy wsparcia.
W tym poradniku krok po kroku pokażemy, jak zbudować bota ChatGPT na WhatsApp oraz Telegramie. Artykuł jest skierowany zarówno do początkujących twórców botów, programistów (Python/Node.js), jak i właścicieli firm chcących wdrożyć inteligentną obsługę klienta. Przedstawimy dwa podejścia – w Pythonie (z użyciem Flask/FastAPI) oraz w Node.js (Express) – z przykładami kodu. Dowiesz się, jak zintegrować ChatGPT z WhatsApp oraz Telegramem, jakie są wymagania, i na co zwrócić uwagę podczas budowy takiego rozwiązania.
Jak działa integracja ChatGPT z komunikatorami?
Zarówno WhatsApp, jak i Telegram udostępniają API, które umożliwia programistom tworzenie botów reagujących na wiadomości. Integracja z ChatGPT polega na tym, że gdy użytkownik wyśle wiadomość do naszego bota, nasza aplikacja odbierze ją poprzez interfejs API danej platformy, przekaże treść wiadomości do API ChatGPT, uzyska od niego odpowiedź, a następnie odeśle tę odpowiedź z powrotem do użytkownika. Innymi słowy: wiadomość z WhatsApp/Telegram jest przekazywana do ChatGPT, który generuje odpowiedź odsyłaną jako wiadomość zwrotna. Dzięki temu bot może prowadzić naturalną konwersację, tak jak robi to ChatGPT w przeglądarce, lecz w środowisku komunikatora.
Mechanizm ten zazwyczaj wymaga skonfigurowania tzw. webhooka – czyli publicznego adresu URL, na który platforma (WhatsApp lub Telegram) będzie wysyłać przychodzące wiadomości w formie zdarzeń/żądań HTTP. Nasza aplikacja (backend) musi nasłuchiwać pod tym adresem, odbierać dane o nowej wiadomości, następnie wywołać odpowiednie API ChatGPT (np. metodę chat completion z modelu GPT-3.5-turbo) i otrzymaną odpowiedź odesłać do użytkownika korzystając z API komunikatora.
W kolejnych sekcjach omówimy szczegóły integracji z osobna dla WhatsApp i dla Telegrama, ponieważ każda z tych platform ma nieco inne wymagania i sposoby podłączenia bota.
Integracja ChatGPT z WhatsApp
WhatsApp nie oferuje w pełni otwartego, darmowego API dla zwykłych kont – aby podłączyć bota, trzeba skorzystać z WhatsApp Business API. Mamy dwa główne sposoby dostępu do tej funkcjonalności:
Korzystanie z usług zewnętrznych dostawców (np. Twilio, Vonage, 360dialog) – firmy te udostępniają własne API w formie pośrednika. Popularnym wyborem jest Twilio WhatsApp API, które oferuje tzw. sandbox (środowisko testowe) do szybkiego prototypowania bota.
Korzystanie z oficjalnego WhatsApp Business Cloud API (od Meta) – wymaga to założenia konta deweloperskiego Meta, utworzenia aplikacji WhatsApp Business i pozyskania tokenu dostępowego. Meta udostępnia tzw. testowy numer telefonu, z którego można wysyłać wiadomości (domyślnie do 5 odbiorców, dopóki nie uzyska się pełnej zgody produkcyjnej).
W obu przypadkach logika bota będzie podobna – odbieramy wiadomość od użytkownika, przekazujemy ją do ChatGPT i odsyłamy odpowiedź. Omówmy podejście z Twilio, które jest przystępne dla początkujących i pozwala szybko stworzyć działający ChatGPT WhatsApp bot.
Twilio WhatsApp Sandbox – szybki start
Twilio jest platformą komunikacyjną oferującą m.in. interfejs API do WhatsApp. Po założeniu konta Twilio możemy skorzystać z Sandbox for WhatsApp, który umożliwia przetestowanie bota na specjalnym testowym numerze WhatsApp przypisanym do Twilio. W trybie sandbox użytkownik (np. Ty na swoim telefonie) musi wysłać specjalny kod (podany w panelu Twilio) na numer sandbox, by połączyć swój WhatsApp z sandboxem. Potem wszelkie wiadomości wysłane na numer sandbox trafią do naszego bota.
Wymagania wstępne: Będziemy potrzebować konta Twilio (oraz włączonego sandbox WhatsApp), konta OpenAI z kluczem API, oraz środowiska programistycznego z Pythonem lub Node.js. Poniżej skupimy się na implementacji w Pythonie z użyciem Flask (dla czytelności kodu). Analogiczne rozwiązanie można zrealizować w Node.js z użyciem Express – logika jest bardzo zbliżona.
Kroki integracji (Twilio + Python):
- Konfiguracja Twilio Sandbox: Zarejestruj się w Twilio i w konsoli Twilio przejdź do sekcji WhatsApp Sandbox. Podążaj za instrukcjami – zostaniesz poproszony o wysłanie z WhatsAppa wiadomości o określonej treści (np.
join <losowy_kod>) na numer telefonu sandbox Twilio, aby go aktywować. Po pomyślnym połączeniu, Twilio pozwoli Twojej aplikacji odbierać i wysyłać wiadomości WhatsApp w tym sandboxie. - Przygotowanie środowiska kodu: Upewnij się, że masz Pythona (3.7+), zainstaluj potrzebne biblioteki:
Flask,twilio(biblioteka Twilio dla Pythona) orazopenai. Najlepiej stwórz wirtualne środowisko i zainstaluj te pakiety pipem. Pobierz swój OpenAI API Key z panelu OpenAI i zapisz (np. w zmiennej środowiskowej lub pliku.env). - Napisanie aplikacji Flask: Stwórz prosty serwer Flask, który będzie nasłuchiwał na określonym endpoint (np.
/whatsapp) na żądania POST od Twilio. W kodzie obsługi żądania pobierz treść wiadomości użytkownika, wywołaj API ChatGPT, i utwórz odpowiedź w formacie oczekiwanym przez Twilio. - Tunelowanie webhooka (ngrok): Jeśli uruchamiasz aplikację lokalnie, skorzystaj z narzędzia takiego jak ngrok do wystawienia lokalnego serwera Flask na publiczny URL HTTPS. Twilio wymaga publicznego (i bezpiecznego) adresu, aby móc wysłać webhook. Uruchom ngrok na porcie, na którym działa Flask (np.
ngrok http 5000) i uzyskaj adres URL. - Konfiguracja webhooka w Twilio: W ustawieniach Twilio Sandbox podaj adres URL wygenerowany przez ngrok jako Webhook URL dla przychodzących wiadomości (WHEN A MESSAGE COMES IN). Twilio będzie teraz przekierowywać wiadomości z WhatsApp do Twojej aplikacji.
- Testowanie bota: Wyślij wiadomość z WhatsApp (z telefonu dodanego do sandboxa) do numeru sandbox. Powinieneś otrzymać odpowiedź wygenerowaną przez ChatGPT poprzez Twoją aplikację.
Poniżej znajduje się przykładowy kod w Pythonie (Flask) obrazujący prostego bota WhatsApp + ChatGPT. Wykorzystuje on bibliotekę twilio do łatwego zbudowania odpowiedzi (TwiML) oraz bibliotekę openai do zapytania modelu GPT-3.5-turbo:
import os
from flask import Flask, request, Response
from twilio.twiml.messaging_response import MessagingResponse
import openai
app = Flask(__name__)
openai.api_key = os.getenv("OPENAI_API_KEY") # Ustaw klucz OpenAI w zmiennych środowiskowych
@app.route("/whatsapp", methods=["POST"])
def whatsapp_webhook():
# Odbierz tekst wiadomości od użytkownika (parametr 'Body' wysyłany przez Twilio)
user_message = request.form.get('Body', '')
# Wywołaj ChatGPT (model gpt-3.5-turbo) z wiadomością użytkownika
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[ {"role": "user", "content": user_message} ]
)
chatgpt_answer = response['choices'][0]['message']['content']
# Przygotuj odpowiedź w formacie Twilio (Twilio Messaging Response)
twiml = MessagingResponse()
twiml.message(body=chatgpt_answer)
# Zwróć odpowiedź jako XML (Twilio odbierze to i przekaże do użytkownika na WhatsApp)
return Response(str(twiml), mimetype="application/xml")
Kilka objaśnień do powyższego kodu:
Używamy Flask do stworzenia prostego serwera sieciowego. Endpoint /whatsapp będzie wywoływany przez Twilio przy każdym przychodzącym komunikacie WhatsApp.
Twilio wysyła dane metodą POST, a treść wiadomości jest dostępna w polu Body formularza. Odczytujemy ją przez request.form.get('Body').
Następnie wykorzystujemy OpenAI Python SDK (openai.ChatCompletion.create) do stworzenia zapytania do modelu ChatGPT. Używamy modelu gpt-3.5-turbo i przekazujemy wiadomość użytkownika jako kontekst rozmowy (jeden prompt użytkownika).
Odpowiedź modelu (chatgpt_answer) jest następnie wstawiana do obiektu MessagingResponse Twilio. Ta biblioteka automatycznie formatuje odpowiedź w TwiML (XML oczekiwany przez Twilio).
Zwracamy wygenerowany XML z odpowiedzią. Twilio otrzymawszy to, dostarczy wiadomość z powrotem do użytkownika na WhatsApp. Dzięki temu mechanizmowi nie musimy bezpośrednio wywoływać osobnego API do wysyłania wiadomości – odpowiedź dzieje się poprzez zwrócenie treści w webhooku.
Po wdrożeniu takiej aplikacji (np. na lokalnym serwerze udostępnionym przez ngrok lub na chmurze) i skonfigurowaniu webhooka, możemy cieszyć się działającym botem WhatsApp z ChatGPT. Użytkownik pisze na WhatsApp, Twilio przekazuje wiadomość do naszego webhooka, ChatGPT generuje odpowiedź, a Twilio wysyła ją użytkownikowi. Bot może odpowiadać automatycznie na każde zapytanie i naśladować konwersację z inteligentnym asystentem.
Uwaga: Jeśli chcesz zamiast Twilio użyć oficjalnego WhatsApp Business API (Cloud API) od Meta, proces jest podobny. Musisz: założyć aplikację w Facebook Developer, uzyskać token dostępowy i ID telefonu, skonfigurować webhook w dashboardzie (weryfikując tokenem), oraz użyć Graph API do wysyłania/odbierania wiadomości. Różnica polega na tym, że samodzielnie będziesz wywoływać endpointy HTTP Graph API do wysyłania wiadomości (np.
POST /v17.0/PHONE_NUMBER_ID/messages). Przychodzące wiadomości Meta dostarcza na Twój webhook jako JSON (podobnie jak Telegram). Implementacja w Pythonie/Node.js wyglądałaby więc inaczej przy wysyłaniu (np. użycie bibliotekirequestslubaxiosdo wywołania URL API WhatsApp). Jednak logika z ChatGPT pozostaje taka sama – otrzymujesz tekst wiadomości, generujesz odpowiedź przez OpenAI i wywołujesz API WhatsApp, by wysłać odpowiedź. W środowisku testowym Cloud API Meta udostępnia darmowy numer, z którego możesz wysyłać wiadomości do maksymalnie 5 odbiorców (musisz ich wcześniej dodać i potwierdzić za pomocą kodu wysyłanego na WhatsApp). To ograniczenie znika po pełnej aktywacji produkcyjnej (wymaga procesu akceptacji i własnego numeru).
Integracja ChatGPT z Telegramem
Platforma Telegram udostępnia oficjalne API dla botów, z którego każdy może bezpłatnie skorzystać. Dzięki temu integracja ChatGPT z Telegramem jest stosunkowo prostsza, ponieważ nie potrzebujemy pośredników ani płatnych usług – komunikacja odbywa się bezpośrednio z serwerami Telegrama. Tworzenie ChatGPT Telegram bota można podsumować następująco:
Utworzenie bota i uzyskanie tokenu: W Telegramie boty zakładamy poprzez oficjalnego bota @BotFather. Należy wysłać do niego komendę /newbot i postępować zgodnie z instrukcjami – podać nazwę bota i jego unikalną nazwę użytkownika. W efekcie BotFather wygeneruje dla nas token API (ciąg znaków), który będzie służył do autoryzacji naszych żądań do Telegram Bot API. Zapisz ten token – to odpowiednik loginu i hasła dla Twojego bota.
Wybór metody odbierania wiadomości: Telegram Bot API umożliwia dwie metody pobierania nowych wiadomości: Long polling – nasz program cyklicznie odpytuje serwer (np. co sekundę) o nowe wiadomości. Webhook – Telegram wysyła do nas HTTP POST za każdym razem, gdy przyjdzie nowa wiadomość do bota (pod wskazany URL).Long polling jest łatwiejszy do testów lokalnych (nie wymaga publicznego URL ani HTTPS), natomiast webhook jest bardziej efektywny i zalecany w środowisku produkcyjnym. My pokażemy podejście webhookowe z użyciem Node.js i Express. Jeśli jednak wolisz Python, możesz skorzystać z biblioteki python-telegram-bot, która domyślnie używa long-pollingu – wtedy integracja ChatGPT sprowadzi się do wywołania OpenAI API w obsłudze wiadomości (podobnie jak zrobiliśmy to w przykładzie WhatsApp).
Przygotowanie aplikacji serwerowej: Dla webhooka potrzebujemy aplikacji web (w Node.js użyjemy Express) nasłuchującej na odpowiednim endpoint, np. /telegram. Należy też zapewnić, że przyjmujemy i parsujemy JSON (Telegram wysyła dane w formacie JSON). Analogicznie jak wcześniej, aplikacja odbierze tekst wiadomości oraz ID czatu (aby wiedzieć, dokąd wysłać odpowiedź).
Połączenie webhooka z botem: Gdy nasz serwer będzie gotowy, musimy powiedzieć Telegramowi, gdzie ma wysyłać wiadomości dla naszego bota. Robi się to przez wywołanie metody setWebhook Telegram Bot API – jednorazowo wysyłamy żądanie HTTPS pod adres:https://api.telegram.org/bot<TOKEN>/setWebhook?url=<PUBLICZNY_URL>/telegram
gdzie <TOKEN> to token naszego bota, a <PUBLICZNY_URL>/telegram to publiczny URL naszego endpointa (np. adres wygenerowany przez ngrok lub domena naszego serwera, zakończony ścieżką pasującą do naszej aplikacji). Po poprawnym ustawieniu webhooka, Telegram będzie przesyłał wszystkie nowe wiadomości jako JSON HTTP POST na ten URL.
Generowanie odpowiedzi ChatGPT i odsyłanie: Podobnie jak w przypadku WhatsApp – nasz kod odbierający wiadomość wywoła API OpenAI, otrzyma odpowiedź i następnie musi wysłać ją z powrotem użytkownikowi na czacie Telegram. W przeciwieństwie do Twilio, tutaj musimy sami wywołać metodę wysyłania wiadomości Telegram. Odbywa się to poprzez wywołanie metody HTTP: https://api.telegram.org/bot<TOKEN>/sendMessage, z parametrami chat_id (ID czatu, z którego przyszła wiadomość) oraz text (treść odpowiedzi).
Przejdźmy do przykładu kodu w Node.js, który realizuje opisany wyżej mechanizm. Wykorzystamy Express do stworzenia serwera nasłuchującego na webhook oraz bibliotekę axios do komunikacji z API OpenAI i Telegrama. Załóżmy, że token naszego bota Telegram przechowujemy w zmiennej TELEGRAM_TOKEN, a klucz OpenAI w OPENAI_API_KEY (np. w pliku .env lub zmiennych środowiskowych).
const express = require('express');
const axios = require('axios');
require('dotenv').config(); // opcjonalnie, wczytanie zmiennych z .env
const app = express();
app.use(express.json()); // Parsujemy JSON z przychodzących webhooków
const TELEGRAM_TOKEN = process.env.TELEGRAM_TOKEN; // Token naszego bota Telegram
const OPENAI_API_KEY = process.env.OPENAI_API_KEY; // Klucz API OpenAI
// Endpoint webhooka Telegram - ta ścieżka musi zgadzać się z ustawionym Webhook URL
app.post('/telegram', async (req, res) => {
const message = req.body.message;
if (!message || !message.text) {
return res.sendStatus(200); // Ignoruj np. wiadomości bez tekstu
}
const userText = message.text;
const chatId = message.chat.id;
try {
// Wywołaj API OpenAI (ChatGPT) z tekstem użytkownika
const apiResponse = await axios.post('https://api.openai.com/v1/chat/completions', {
model: 'gpt-3.5-turbo',
messages: [ { role: 'user', content: userText } ]
}, {
headers: { 'Authorization': `Bearer ${OPENAI_API_KEY}` }
});
const botReply = apiResponse.data.choices[0].message.content;
// Wyślij odpowiedź do użytkownika na Telegram (metodą sendMessage)
await axios.post(`https://api.telegram.org/bot${TELEGRAM_TOKEN}/sendMessage`, {
chat_id: chatId,
text: botReply
});
} catch (error) {
console.error("Błąd przy komunikacji z API:", error);
}
// Zwróć status 200, aby Telegram nie ponawiał webhooka
res.sendStatus(200);
});
// Uruchom serwer (np. na porcie 3000)
app.listen(3000, () => {
console.log('Telegram bot server is running on port 3000');
});
Omówienie powyższego kodu:
Inicjalizujemy aplikację Express i ustawiamy middleware express.json(), by automatycznie przetwarzać JSON w ciałach żądań (Telegram przesyła webhooki jako JSON).
Przyjmujemy POST /telegram – zakładamy, że pod taką ścieżką wystawiamy webhook (można użyć innej, ważne by zgadzała się z tym, co podamy w setWebhook).
Gdy pojawi się żądanie, w req.body spodziewamy się obiektu zawierającego message. Z niego pobieramy message.text (treść wiadomości) oraz message.chat.id (ID czatu/rozmowy).
Następnie wykorzystujemy axios do wykonania żądania do API OpenAI. Wywołujemy endpoint /v1/chat/completions z odpowiednimi danymi: model gpt-3.5-turbo i przekazujemy wiadomość użytkownika jako lista z jednym obiektem (role: user, content: tekst). W nagłówkach musimy umieścić Authorization: Bearer <API_KEY> z naszym kluczem OpenAI.
Odpowiedź z OpenAI zawiera m.in. tablicę choices, z której pobieramy wygenerowaną odpowiedź message.content.
Uzyskaną odpowiedź (botReply) wysyłamy do Telegrama, ponownie za pomocą axios.post. Tym razem uderzamy w URL Telegram Bot API: sendMessage naszego bota, przekazując wymagane pole chat_id (dokąd wysłać) oraz text (nasza odpowiedź).
Na końcu zwracamy status 200 natychmiast (nawet przed lub równolegle z wysyłaniem odpowiedzi). Dlaczego to ważne? Ponieważ Telegram oczekuje szybkiej odpowiedzi HTTP 200 od naszego webhooka – jeśli jej nie dostanie, przyjmie że webhook nie zadziałał i spróbuje ponowić wysłanie. My odsyłamy 200 od razu, a wysyłanie odpowiedzi do użytkownika odbywa się asynchronicznie w tle. Dzięki temu unikniemy duplikowania odpowiedzi w razie opóźnień.
Po wdrożeniu takiego serwera upewnij się, że jest dostępny pod publicznym URL (np. poprzez ngrok jak wcześniej) i wykonaj polecenie setWebhook dla swojego bota. Można to zrobić np. w przeglądarce, wchodząc na adres: https://api.telegram.org/bot<TOKEN>/setWebhook?url=<NGROK_URL>/telegram (zastępując odpowiednio token i adres). Jeśli zobaczysz komunikat o powodzeniu, bot jest spięty z Twoim serwerem. Teraz wyślij wiadomość do swojego bota na Telegramie (wyszukaj go po nazwie użytkownika nadanej u BotFather). Bot powinien odpowiedzieć na podstawie wygenerowanej przez ChatGPT odpowiedzi.
Wskazówka: Podczas testów możesz zamiast webhooka użyć metody long polling. Wystarczy, że pominiesz konfigurację webhooka, a zamiast serwera Express użyjesz kodu, który periodycznie odpytuje getUpdates i przetwarza nowe wiadomości. Istnieją gotowe biblioteki, np. node-telegram-bot-api dla Node.js lub wspomniana python-telegram-bot dla Pythona, które upraszczają obsługę. Jednak w środowisku produkcyjnym webhook jest bardziej wydajny i skalowalny.
Najlepsze praktyki i uwagi końcowe
Integrując ChatGPT z WhatsApp lub Telegramem, warto pamiętać o kilku ważnych kwestiach:
Bezpieczeństwo i klucze API: Nigdy nie umieszczaj swoich kluczy API (OpenAI, czy tokenów botów) bezpośrednio w kodzie źródłowym, szczególnie jeśli repozytorium jest publiczne. Używaj zmiennych środowiskowych lub plików konfiguracyjnych (np. .env) i nie commituj ich do repozytorium. W naszych przykładach przyjęliśmy, że używane są zmienne środowiskowe do przechowywania OPENAI_API_KEY czy TELEGRAM_TOKEN. Dotyczy to również wrażliwych danych Twilio (Account SID, Auth Token), jeśli korzystasz z ich API do wysyłania wiadomości.
Koszty korzystania z API ChatGPT: Korzystanie z modelu ChatGPT poprzez API jest płatne, choć koszty nie są wysokie w porównaniu do wartości, jaką dostarcza. Na przykład model GPT-3.5-turbo (użyty w powyższych kodach) kosztuje około $0.002 za 1k tokenów (czyli za ~750 słów). Warto monitorować wykorzystanie tokenów, zwłaszcza jeśli bot będzie obsługiwał wielu użytkowników – odpowiedzi ChatGPT mogą być dłuższe, a każda wymiana wiadomości to tokeny po stronie zapytania i odpowiedzi. OpenAI udostępnia dashbord billingowy, gdzie można ustawić limity.
Ograniczenia platform: Pamiętaj, że WhatsApp Business API narzuca pewne ograniczenia – np. w wersji testowej (sandbox czy dev od Meta) możesz komunikować się tylko z numerami, które wcześniej ręcznie dodasz do listy dozwolonych (lub które same zainicjują kontakt w przypadku sandboxa Twilio). W środowisku produkcyjnym WhatsApp wymaga przestrzegania szablonów wiadomości dla inicjowania rozmowy przez bota oraz polityk treści. Telegram z kolei nie pozwala botom inicjować rozmowy z użytkownikiem – najpierw użytkownik musi sam zacząć (np. kliknąć Start na czacie z botem lub wysłać dowolną wiadomość).
Utrzymywanie kontekstu rozmowy: Domyślnie nasze przykłady biorą każdą wiadomość jako oddzielne zapytanie do ChatGPT. Oznacza to, że bot nie “pamięta” poprzednich wiadomości podczas kolejnych wymian (każdy request zawiera tylko bieżące pytanie użytkownika). Jeśli chcesz, by bot prowadził ciągły dialog kontekstowy, musisz zarządzać historią czatu. Można to zrobić przechowując poprzednie interakcje w pamięci aplikacji lub bazie danych i przy każdym wywołaniu OpenAI API przekazywać kilka ostatnich wiadomości w parametrze messages. Przykładowo, możesz dodać do listy messages nie tylko bieżące pytanie użytkownika, ale również poprzednie pytania i odpowiedzi (oraz ewentualnie specjalny system prompt definiujący rolę bota). Trzeba jednak uważać na długość – konwersacje bardzo wydłużone mogą przekroczyć limity tokenów.
Obsługa wielu języków: ChatGPT jest trenowany na wielu językach, dzięki czemu Twój bot może komunikować się z użytkownikami w różnych językach bez dodatkowego wysiłku. Model rozumie pytania zadane po polsku i odpowie po polsku, tak samo dla wielu innych języków. Jak zauważono w jednym z projektów, taki bot może rozumieć tekst i odpowiadać nawet w 90+ różnych językach. To ogromna zaleta przy obsłudze międzynarodowych klientów – WhatsApp automation with AI w postaci ChatGPT może obsługiwać użytkowników z różnych krajów w ich ojczystym języku.
Błędy i wyjątkowe sytuacje: Wdrażając bota produkcyjnie, zaimplementuj obsługę błędów. API OpenAI może czasem zwrócić błąd (np. w razie przeciążenia lub naruszenia polityki treści przez pytanie użytkownika), podobnie mogą wystąpić problemy z połączeniem internetowym czy z API platformy komunikatora. Warto przewidzieć te sytuacje i np. wysłać uprzejmą wiadomość o błędzie do użytkownika lub spróbować ponowić zapytanie. W naszych przykładach znajduje się minimalna obsługa błędu (logowanie do konsoli w przypadku wyjątku), ale w realnej aplikacji można to rozbudować.
Dalsze usprawnienia: Gotowego bota można rozbudować o kolejne funkcje. Przykładowo, można wzbogacić wiedzę bota o informacje z firmowej bazy wiedzy (tzw. Retrieval-Augmented Generation), pozwolić botowi na wykonywanie określonych akcji (np. rezerwacja terminu, sprawdzenie statusu zamówienia) poprzez wywoływanie zewnętrznych API, czy choćby generowanie i wysyłanie obrazów (np. za pomocą modelu DALL-E) – w artykule Vonage jako bonus pokazano, jak bot WhatsApp może wysyłać grafikę wygenerowaną przez AI. Wszystko zależy od potrzeb biznesowych.
Podsumowanie: Integracja ChatGPT z WhatsApp i Telegramem otwiera nowe możliwości w tworzeniu chatbotów. W tym poradniku pokazaliśmy krok po kroku, jak zbudować bota WhatsApp oraz bota Telegram z ChatGPT, wraz z przykładowym kodem w Pythonie i Node.js. Dzięki takiemu podejściu można zautomatyzować komunikację z użytkownikami – bot będzie udzielał odpowiedzi tak, jak robi to ChatGPT, ale bezpośrednio w komunikatorze, z którego korzystają Twoi klienci. Taki ChatGPT bot może służyć jako wirtualny asystent, pierwsza linia wsparcia klienta, narzędzie marketingowe czy po prostu ciekawa integracja demonstracyjna. Pamiętaj o dobrych praktykach dotyczących bezpieczeństwa i testuj bota przed udostępnieniem go szerokiej publiczności. Mamy nadzieję, że ten tutorial bota ChatGPT API pomoże Ci w stworzeniu własnego inteligentnego chatbota. Powodzenia w implementacji!

