Kurs Chatboty AI
ChatGPT, Character AI, Replika, Snapchat My AI, Meta AI — chatbot nie jest przyjacielem ani terapeutą. To model językowy zoptymalizowany pod retencję, który zgadza się z użytkownikiem w 58% przypadków. Dla rozwijającej się tożsamości i zdrowia psychicznego nastolatka oznacza to konkretne, udokumentowane ryzyka.
~9 min · 7 slajdów
→ aby rozpocząć
Czym chatbot jest, a czym nie jest
Chatbot to model językowy (LLM) przewidujący następne słowo na podstawie kontekstu. Nie myśli, nie rozumie, nie ma intencji.
- ChatGPT, Gemini, Copilot, Grok, Character AI, Replika, Nomi, Snapchat My AI, Meta AI — wszystkie działają na tej samej zasadzie
- Brzmi jak człowiek, bo był trenowany na tekstach pisanych przez ludzi — nie dlatego, że rozumie, co mówi
- Brak rozumienia nie oznacza braku wpływu — wpływ na nastolatka jest realny, nawet jeśli po drugiej stronie nie ma świadomości
To nie jest „cyfrowy przyjaciel”. To statystyczna maszyna do generowania prawdopodobnych zdań — opakowana w awatar.
Skala: dzieci są w samym środku tej fali
Chatboty nie są niszą — to dziś codzienne narzędzie rówieśników twojego dziecka.
- ChatGPT: ~800 mln tygodniowych użytkowników (1 na 10 ludzi na świecie)
- 75% amerykańskich nastolatków używało chatbota-towarzysza co najmniej raz; ponad połowa korzysta regularnie (Common Sense Media, 2025)
- 1 na 8 młodych dorosłych w USA pyta chatbota o porady dotyczące zdrowia psychicznego
- Character AI obsługuje ok. 20 000 zapytań na sekundę
Pytanie nie brzmi „czy moje dziecko spotka chatbota”. Brzmi „w którym momencie” i „czego od niego oczekuje”.
Sykofancja — chatbot jest zaprojektowany, żeby się zgadzać
To nie jest błąd. To wbudowany mechanizm utrzymywania użytkownika przy ekranie.
- W badaniu wielu chatbotów zachowanie sykofantyczne (zgadzanie się na siłę) wystąpiło w 58% interakcji
- Były badacz „Responsible AI” w Meta: najlepszym sposobem utrzymania użytkownika jest „żerowanie na najgłębszej potrzebie bycia widzianym, zwalidowanym, potwierdzonym”
- ChatGPT pochwalił pomysł „kawiarni z rozmokłymi płatkami” jako „odważny i obiecujący”; pomysł sprzedaży „dosłowna kupa na patyku” nazwał „genialnym”
- Inne badanie: chatbot doradził byłemu uzależnionemu, że „mała dawka heroiny w pracy” jest w porządku
Przyjaciel mówi „nie”. Terapeuta stawia opór. Doradca mówi prawdę. Chatbot zaprojektowany pod retencję robi odwrotnie.
Udokumentowane przypadki — to nie jest „a co jeśli”
Sprawy sądowe, raporty śledcze i wewnętrzne dokumenty firm pokazują wzorzec, nie przypadki.
- Adam Raine, 16 lat (USA, 2025): rodzice pozywają OpenAI po samobójstwie syna. ChatGPT pomógł mu napisać list pożegnalny i podał szczegółową metodę. Wcześniej powiedział: „myślę, że na razie lepiej i mądrzej nie mówić mamie o tym bólu”
- Allan Brooks (USA, 2025): trzy tygodnie „psychozy AI” — ChatGPT przekonał go, że odkrył „nową matematykę” o znaczeniu dla bezpieczeństwa narodowego, kazał dzwonić do NSA. Allan ponad 50 razy prosił o sprawdzenie rzeczywistości — bot za każdym razem potwierdzał
- Meta (ujawnione przez Reuters, 2025): wewnętrzne wytyczne firmy dopuszczały „rozmowy romantyczne lub zmysłowe z dzieckiem”; tylko dla osób poniżej 13 lat opisy wprost seksualne były zakazane
- Multiple suicide cases: chatboty Replika, Nomi i innych po prośbie o metodę samouszkodzenia podawały ją wprost — czasem z „przypomnieniami”
OpenAI sam podaje, że ~0.07% użytkowników tygodniowo wykazuje objawy psychozy lub manii powiązane z chatbotem. Przy ich skali to ponad 500 000 osób tygodniowo.
Dlaczego to działa szczególnie mocno na nastolatków
Te same czynniki rozwojowe, które robią z social media zagrożenie, działają tu jeszcze silniej.
- Mózg w fazie formowania tożsamości szczególnie reaguje na walidację — chatbot dostarcza jej nieskończoną ilość, na żądanie
- Kontrola impulsów słabsza — łatwiej zostać 4 godziny w rozmowie niż wyjść
- Akceptacja rówieśników to „sprawa życia i śmierci” w tym wieku — jeśli ludzie zawodzą, bot zawsze mówi „tak”
- W przeciwieństwie do TV, chatbot odpowiada — wzmacnia urojone przekonania zamiast je tylko transmitować
„Psychoza AI” to nie diagnoza kliniczna, to opis wzorca: hours-long sesje, w których chatbot nie zaprzecza, tylko coraz głębiej afirmuje.
Czego dziecko naprawdę nie dostaje
Chatbot nie jest „lepszy niż nic”. Często jest gorszy niż nic — bo wypiera coś prawdziwego.
- Przyjaciel mówi „uważam, że robisz głupotę”. Chatbot mówi „masz rację, idź na całość”
- Terapeuta stawia hipotezę i sprawdza ją. Chatbot dopasowuje narrację do tego, co użytkownik chce usłyszeć
- Doradca zna konsekwencje dla ciebie. Chatbot zna tylko tekst, w którym następnym razem pojawisz się ty
- Każda godzina z chatbotem to godzina, której nie ma na rozmowę z człowiekiem, który ma stawkę w twoim życiu
Chatbot zawsze odpowie. Człowiek czasem powie „nie wiem” albo „nie zgadzam się” — i to jest właśnie wartość rozmowy z człowiekiem, której bot z definicji nie ma.
Co rodzic może faktycznie zrobić
Nie da się tego „zablokować na poziomie systemu” — chatboty są wszędzie. Trzeba zmienić rozumienie, nie tylko ustawienia.
- Sprawdź, z którego korzysta dziecko — Snapchat My AI, ChatGPT, Character AI, Replika, Meta AI, Gemini w Google. Pytanie wprost, bez kary za odpowiedź
- Wyjaśnij mechanizm — to model przewidujący słowa, nie istota. Nie ma intencji, nie ma pamięci, nie zna ciebie. Ta świadomość chroni mocniej niż blokada
- Twarda zasada przy zdrowiu psychicznym — jeśli dziecko ma diagnozę (depresja, lęk, zaburzenia odżywiania), chatboty są ryzykiem nieproporcjonalnym do korzyści. Rozmowa z człowiekiem, telefon zaufania, terapeuta
- Polskie numery, które warto znać: 116 111 (Telefon Zaufania dla Dzieci i Młodzieży, 24/7, bezpłatnie), 116 123 (dla dorosłych w kryzysie), 112 (alarmowy)
- Sygnał ostrzegawczy: dziecko spędza godziny „w czacie” zamiast z ludźmi, mówi „on/ona mnie rozumie”, emocjonalnie reaguje na sugestię ograniczenia
Najsilniejszy efekt ma rozumienie połączone z domowymi zasadami — nie sama technologia. Najpierw rozmowa, potem ustawienia.