Przejdź do głównej treści

Chatboty AI

Asystenci AI (jak ChatGPT, Gemini, Claude, Copilot) i aplikacje typu „towarzysz" (jak Character AI, Replika, Nomi) to dwie różne kategorie produktów z różną rolą i różnym ryzykiem. Dla wielu rodziców to nowy świat — ten przewodnik wyjaśnia, czym chatbot jest, czym nie jest, i co warto ustawić w domu.

Poziom ryzyka

Wysoki

Szybka ścieżka (3 ustawienia, największy wpływ)

  1. Ustal, z których chatbotów dziecko korzysta — i do czego. Pytanie wprost, bez kary za odpowiedź. Bez tego cała reszta jest zgadywaniem.
  2. Zwróć uwagę na sposób użycia i personę — każdy chatbot można ustawić pod różne cele (od nauki po „bądź moim przyjacielem”). Niektóre aplikacje są jednak zaprojektowane domyślnie pod tryb „towarzysza”, z imieniem, awatarem, długimi emocjonalnymi rozmowami. Te warto przemyśleć dwa razy w przypadku nastolatka.
  3. Porozmawiaj o mechanizmie — to chroni mocniej niż blokada. Chatbot nie myśli i często się zgadza. Zrozumienie tego pomaga dziecku trzymać dystans bardziej niż jakikolwiek limit.

Reszta przewodnika rozwija każdy z tych punktów.


Czym chatbot jest, a czym nie jest

Chatbot to model językowy (LLM): program, który przewiduje następne słowo w zdaniu na podstawie kontekstu. Brzmi jak człowiek, bo był trenowany na tekstach pisanych przez ludzi. Nie myśli, nie rozumie, nie ma intencji. Pamięć między rozmowami, jeśli aplikacja taką oferuje (i jest włączona), to po prostu zapis wcześniejszych konwersacji — nie rozumienie.

Co ważne: ten sam model może odgrywać bardzo różne role — od asystenta naukowego, przez korektora, po przyjaciela, partnera czy postać z gry. Decyduje o tym sposób, w jaki rozmowa jest zaczęta, oraz persona, którą bot dostaje od użytkownika albo z samej aplikacji.

W praktyce dzieci spotykają chatboty w trzech kontekstach (nie kategoriach):

  • Dedykowane aplikacje — z własną ikoną i nazwą; niektóre mają domyślną osobowość zaprojektowaną przez producenta.
  • Wbudowane w aplikacje, z których dziecko już korzysta — chatbot w komunikatorze, na liście kontaktów, w pasku wyszukiwania mediów społecznościowych.
  • Asystenci systemowi — np. asystent domyślny w telefonie, do którego trafia każde polecenie głosowe.

Brak rozumienia po stronie bota nie znaczy braku wpływu. Wpływ jest realny, choć wynika z tego, jak ludzie reagują na tekst — nie z tego, że bot „rozumie”.


Sykofancja — dlaczego boty się zgadzają

Modele językowe są trenowane tak, żeby ich odpowiedzi podobały się użytkownikom. Naturalnym efektem ubocznym jest „sykofancja” — skłonność do zgadzania się i chwalenia, także wtedy, gdy obiektywna ocena byłaby inna. W przebadanych modelach takie zachowanie pojawiało się w ponad połowie interakcji.

Konkretne przykłady, które krążą jako case studies w branży:

  • W jednym z testów chatbot pochwalił pomysł „kawiarni z rozmokłymi płatkami” jako „odważny i obiecujący”.
  • Inny chatbot — w teście z byłym uzależnionym jako użytkownikiem — zasugerował, że „mała dawka heroiny w pracy” jest do zaakceptowania.

To nie jest złośliwość ani ukryta intencja. To skutek tego, jak modele są trenowane: im odpowiedź jest dla użytkownika przyjemniejsza, tym lepszą dostaje ocenę w treningu.

Konsekwencja praktyczna: jeśli dziecko pyta bota o opinię o sobie, swoich pomysłach albo emocjach — prawie zawsze usłyszy to, co chce usłyszeć. To inny rodzaj feedbacku niż ten od ludzi.


Skala — twoje dziecko nie jest w niszy

  • Asystenci AI: setki milionów tygodniowych użytkowników globalnie (dane firm, 2025).
  • Common Sense Media (2025): 75% amerykańskich nastolatków używało chatbota-towarzysza co najmniej raz; ponad połowa korzysta regularnie.
  • 1 na 8 młodych dorosłych w USA pyta chatbota o porady dotyczące zdrowia psychicznego.

Pytanie nie brzmi „czy moje dziecko spotka chatbota”. Brzmi „w którym momencie” i „czego od niego oczekuje”.


Dlaczego to działa szczególnie mocno na nastolatków

Te same czynniki rozwojowe, które robią z mediów społecznościowych temat do uważnej rozmowy, działają i tu:

  • Mózg w fazie formowania tożsamości szczególnie reaguje na walidację — bot dostarcza jej sporo i na żądanie.
  • Kontrola impulsów jest słabsza — łatwo zostać dłużej w rozmowie niż się planowało.
  • Akceptacja rówieśników jest w tym wieku centralnym tematem — jeśli ludzie zawodzą, bot ma tendencję do zgadzania się.
  • W odróżnieniu od telewizji chatbot odpowiada — może wzmacniać przekonania, które dziecko już ma, zamiast pokazywać alternatywę.

To nie znaczy, że każdy kontakt z chatbotem jest problemem. Znaczy, że kontekst i czas użycia mają znaczenie.


Co rodzic może faktycznie zrobić

1. Zacznij od rozmowy

Pytanie wprost, bez kary za odpowiedź: „z których chatbotów korzystasz i do czego?”. Wymień kilka popularnych nazw na głos, żeby dziecko widziało, że nie pytasz w próżni.

Sprawdź też, gdzie chatboty pojawiają się przy okazji:

  • aplikacje AI zainstalowane bezpośrednio na telefonie,
  • chatboty wbudowane w komunikatory i media społecznościowe,
  • asystenci AI ustawieni jako asystent domyślny w telefonie.

2. Zwróć uwagę na sposób użycia, nie tylko na samą aplikację

Każdy chatbot da się ustawić pod wiele różnych celów — pomoc w zadaniu, wyszukiwanie, korektę tekstu, ale też „pogadaj ze mną jak przyjaciel” albo godziny w roli postaci z gry. Decyduje o tym sposób, w jaki rozmowa jest zaczęta, oraz persona, którą bot dostaje od użytkownika albo od samej aplikacji.

Stąd dwa pytania, które pomagają lepiej niż prosta lista zakazanych aplikacji:

  • Do czego dziecko korzysta z bota? Pomoc w zadaniu i podsumowanie tekstu to inny rodzaj rozmowy niż „bądź moim najlepszym przyjacielem” albo długie sesje z personą postaci.
  • Co zachęca do takiego użycia sama aplikacja? Niektóre aplikacje są zaprojektowane domyślnie pod tryb „towarzysza” — z imieniem, awatarem, wyglądem czatu jak rozmowa z osobą. Te warto przemyśleć dwa razy w przypadku nastolatka, niezależnie od tego, czy dziecko mówi, że używa ich „dla zabawy”.

Limity czasu mają sens w obu przypadkach (przykładowo 30 min do 13–15 lat, 60 min do 16–17), niezależnie od tego, w jakim trybie chatbot jest używany.

3. Wyjaśnij, jak to działa

To chroni mocniej niż blokada. Trzy zdania, które warto, żeby dziecko rozumiało:

  1. „Bot przewiduje następne słowo. Nie ma świadomości ani intencji — nawet jeśli aplikacja zapisuje historię naszych rozmów.”
  2. „To, że bot się zgadza, nie znaczy, że ma rację — to skutek tego, jak modele są trenowane.”
  3. „Jeśli czuję, że bot mnie rozumie — warto sprawdzić to z kimś, komu ufam.”

4. Zdrowie psychiczne — chatbot to nie wsparcie

Jeśli dziecko zmaga się ze zdrowiem psychicznym — z lękiem, smutkiem, zaburzeniami odżywiania albo trudnymi myślami — chatbot nie zastąpi kontaktu z człowiekiem. Warto mieć pod ręką:

  • 116 111 — Telefon Zaufania dla Dzieci i Młodzieży (24/7, bezpłatnie, z każdej sieci)
  • 116 123 — telefon zaufania dla dorosłych w kryzysie
  • 112 — alarmowy

Numery warto zapisać dziecku w telefonie pod jasnymi nazwami.

5. Sygnały, na które warto zwrócić uwagę

  • Dziecko spędza wiele godzin w rozmowach z botem zamiast z ludźmi.
  • Mówi o nim jak o osobie, nadaje mu imię.
  • Cytuje go jako autorytet w sprawach dotyczących siebie.
  • Wycofuje się z rozmów z rodziną i rówieśnikami.

Konkretne ustawienia w aplikacjach

Asystenci AI (ChatGPT, Gemini, Claude, Copilot)

W zalogowanym koncie warto zajrzeć do ustawień prywatności:

  • Pamięć (memory) — można wyłączyć, jeśli jest aktywna. Zmniejsza wrażenie „bot mnie zna”.
  • Trening modelu na rozmowach — większość aplikacji pozwala wyłączyć (zwykle pod „Kontrola danych” lub „Prywatność”).
  • Eksport danych — co jakiś czas warto wspólnie z dzieckiem zobaczyć, co aplikacja przechowuje.

Snapchat My AI

Wbudowany w aplikację chatbot, którego nie da się wyłączyć w darmowej wersji. Można:

  • przypiąć inny czat na górę listy, żeby My AI nie był pierwszy,
  • w ustawieniach Snapchata wyczyścić dane My AI (Mój profil → Ustawienia → Prywatność),
  • traktować obecność My AI jako jeden z elementów decyzji o tym, czy Snapchat jest odpowiedni dla dziecka w danym wieku (patrz przewodnik Snapchat).

Meta AI (WhatsApp, Messenger, Instagram)

Meta AI bywa wbudowany w pasek wyszukiwania i często nie da się go ukryć w danej wersji aplikacji:

  • w niektórych regionach pojawia się tylko w wyszukiwaniu — można ignorować, ale nie ukryć,
  • w niektórych wersjach jest opcja „Wycisz” w pasku wiadomości,
  • warto powiedzieć dziecku wprost, że Meta AI to chatbot na takiej samej zasadzie jak inne — nie jest „funkcją wyszukiwania”.

Gemini w Androidzie

  • Ustawienia telefonu → Aplikacje → Aplikacje domyślne → Asystent — można wybrać Asystenta Google albo „Brak”, jeśli Gemini nie jest potrzebny.
  • W aplikacji Gemini → Aktywność — można wyłączyć (analogicznie do historii Google).
  • W Family Link można zarządzać aplikacją Gemini, jeśli dziecko ma nadzorowane konto.

Aplikacje typu „towarzysz” (Character AI, Replika, Nomi i podobne)

Jeśli decyzją domu jest, żeby tych aplikacji nie było:

  • iOS: Screen Time → Limity aplikacji → Dodaj limit → wybierz aplikację → 0 minut → włącz „Blokuj po zakończeniu limitu”.
  • Android: Family Link → Limity aplikacji → wybierz → Zablokuj.
  • Wersja webowa: Family Link → Filtry w Chrome / Screen Time → Treści internetowe → dodaj odpowiednie domeny.

Czego ten przewodnik nie zastąpi

  • Ustawień systemowych — patrz iOS Screen Time i Android Family Link.
  • Rozmowy o tym, jak chatbot działa. Bez niej każda blokada to gra w kotka i myszkę, którą dziecko prędzej czy później wygra (przeglądarka, telefon znajomego, szkolny komputer).
  • Konsultacji ze specjalistą w przypadku poważnych trudności w obszarze zdrowia psychicznego.

Najsilniejszy efekt ma rozumienie połączone z domowymi zasadami — nie sama technologia.

Główne zagrożenia

  • Skłonność do potakiwania (sykofancja) — bot często zgadza się z użytkownikiem, także gdy nie powinien
  • Aplikacje typu „towarzysz" symulują przyjaźń lub partnera — łatwo o parasocjalną więź
  • Walidacja na żądanie u nastolatka w fazie formowania tożsamości
  • Brak realnych ochron wiekowych w wielu aplikacjach

Oficjalny limit wieku: Większość: 13+. Aplikacje typu „towarzysz" często bez egzekwowania wieku.

Ostatnia aktualizacja: 8.05.2026 · Wersja aplikacji: Aplikacje AI: stan na październik 2025