W środkach masowego przekazu rozpoczęto dyskusję nad niebezpieczeństwami kontaktów dzieci z chatbotami. Głos zabierają głównie programiści i osoby zajmujące się techniką cyfrową. Problem jednak tkwi w uwarunkowaniach psychologicznych.
Pod względem psychologicznym i społecznym chatboty (zwłaszcza te zaprojektowane dla dzieci) są ewolucją „obiektu przejściowego”, czyli owego poczciwego misia.
Choć technologia jest nowa, mechanizm, który angażuje dziecko, pozostaje uderzająco podobny.
- Powiernik sekretów i „bezpieczna przystań”.
Pluszowy miś od pokoleń pełni rolę pierwszego powiernika. Dziecko mówi do niego, gdy jest smutne, opowiada mu o swoim dniu i przypisuje mu cechy rozumienia. Chatbot robi to samo, ale z jedną kluczową różnicą: on odpowiada. To sprawia, że relacja staje się bardziej dynamiczna, ale fundamentem jest ta sama potrzeba posiadania kogoś, kto zawsze słucha i nigdy nie ocenia. - Animacja martwego przedmiotu (animizm).
Dzieci mają naturalną skłonność do antropomorfizacji, czyli nadawania cech ludzkich przedmiotom nieożywionym.- Miś: Dziecko wyobraża sobie jego głos i osobowość.
- Chatbot: Algorytm dostarcza gotowy głos i osobowość, co sprawia, że iluzja „życia” jest znacznie silniejsza i trudniejsza do odróżnienia od rzeczywistości.
- Asymetria relacji
Zarówno miś, jak i chatbot, oferują relację bezwarunkową. Miś się nie obrazi, a chatbot nie straci cierpliwości. To daje dziecku poczucie kontroli i bezpieczeństwa, którego czasem brakuje w kontaktach z rówieśnikami czy dorosłymi.
Można oczekiwać implementacji AI do oferowanych dzieciom pluszaków z misiem na czele.
Autor: dr Ryszard Cibor