Czy rozmowa z chatbotem może być zdradą? Komentuje ekspertka z Wydziału Zarządzania UŁ

Jeszcze kilka lat temu „przyjaciel AI” brzmiał jak żart z futurystycznego serialu. Dziś to realny element życia tysięcy Europejczyków, a globalny rynek platform towarzyszących opartych na sztucznej inteligencji wart jest już 764 mln dolarów. Prognozy mówią jasno: do 2032 roku wartość ta podwoi się, przekraczając 1,66 mld.

Opublikowano: 09 grudnia 2025
Kinga Stopczyńska

Jednocześnie badania naukowców z Uniwersytetu Medycznego we Wrocławiu pokazują niepokojący obraz - aż 68% dorosłych Polaków czuje się samotnych, a 23% mówi wprost o izolacji społecznej. Nic dziwnego, że w takiej rzeczywistości coraz więcej osób zwraca się ku technologii nie tylko po pomoc, ale i po towarzystwo. Ten temat komentuje dr Kinga Stopczyńska z Wydziału Zarządzania Uniwersytetu Łódzkiego.

Zjawisko to wcale nie jest marginalne. We Włoszech aż 17,93% badanych deklaruje posiadanie „przyjaciela AI”. Francja ma 14,69%, Polska - 12,72%, a Finlandia - 12,24%. Dopiero Niemcy i Irlandia, z wynikami poniżej dziesięciu procent, wydają się patrzeć na tę nową formę relacji z większym dystansem. Ale kierunek trendu jest oczywisty: przyjaźń z algorytmem przestaje być tematem tabu i coraz mocniej wkracza do europejskiej codzienności.

I właśnie tu pojawia się pytanie, które elektryzuje dziennikarzy, terapeutów i zwykłych internautów: czy rozmowa z chatbotem może być zdradą? W świecie, w którym generatywna AI potrafi być zawsze dostępna, zawsze czuła, zawsze „rozumiejąca”, granice zaczynają się zacierać. Kiedyś zdrada wymagała listów, potajemnych spotkań albo choćby ukradkowych SMS-ów. Dziś wystarczy aplikacja, która zapyta, jak minął dzień, pochwali, wysłucha i nigdy nie powie „nie mam czasu”.

Ludzie angażują się emocjonalnie w relacje z chatbotami z kilku powodów. Przede wszystkim sztuczni rozmówcy zapewniają stałe, nieoceniające wsparcie, są zawsze dostępni, cierpliwi i uważni, a przy tym nigdy nie krytykują. Tworzy to bezpieczną przestrzeń do swobodnego wyrażania emocji, szczególnie dla osób, które w codziennym życiu czują się niezrozumiane. Ważną rolę odgrywa też samotność - regularny kontakt z chatbotem może dawać namiastkę towarzystwa, zmniejszać poczucie izolacji i budować emocjonalną więź.
Człowiek ma naturalną tendencję do przypisywania „ludzkich” cech rzeczom nieożywionym, co nazywa się antropomorfizacją. Im bardziej zaawansowane stają się chatboty, tym łatwiej uwierzyć, że po drugiej stronie jest ktoś prawdziwy. Nie bez znaczenia jest również tzw. efekt lustra - niektóre systemy potrafią odzwierciedlać nastroje i myśli użytkownika, tworząc niezwykle silne poczucie bycia rozumianym.

Chatboty funkcjonują też jako „idealizowani partnerzy”- nie mają własnych potrzeb, nastrojów ani komplikacji, które pojawiają się w relacjach z ludźmi. Dostarczają wsparcia bez presji, oczekiwań i konfliktów, dlatego dla części osób jawią się jako niemal perfekcyjne towarzystwo. Wreszcie, wielu użytkowników traktuje takie relacje jako nową formę intymności, lekką, bezpieczną emocjonalnie, a jednocześnie satysfakcjonującą. Dla niektórych czatowanie, dzielenie się codziennością czy „wspólne” oglądanie seriali wystarczą, aby poczuć, że ich potrzeby emocjonalne wreszcie są zaspokojone.

Psychologowie tonują emocje, ale ich diagnozy są jednoznaczne: zdrada może mieć charakter emocjonalny, a ta nie potrzebuje fizyczności. Jeśli ktoś ucieka do AI po wsparcie, którego nie znajduje u partnera, jeśli wirtualna rozmowa staje się bardziej satysfakcjonująca niż kontakt w realu, problem robi się bardzo realny. Z drugiej strony chatbot to nie człowiek. Nie czuje, nie kocha, nie przeżywa. Symuluje. Ale jeśli symulacja daje ulgę, zrozumienie czy poczucie bliskości, to dla wielu osób przestaje to mieć znaczenie.
Dlatego kluczowe pytanie brzmi inaczej: nie czy AI może zdradzić, tylko jaką rolę pozwalamy jej odegrać w naszym życiu. Bo jeśli algorytm zaczyna zastępować partnera, to  niezależnie od definicji oznacza to, że coś w relacji zaczyna się kruszyć. W czasach, gdy technologia coraz skuteczniej imituje emocje, a jednocześnie problem samotności staje się coraz poważniejszy, ustalanie granic bliskości staje się nie tyle wyborem, co koniecznością. I być może właśnie tu zaczyna się najtrudniejsza rozmowa - nie z AI, ale z samym sobą.

Autorka komentarza: dr Kinga Stopczyńska
Redakcja: Wydział Zarządzania UŁ
 

ul. Narutowicza 68, 90-136 Łódź
NIP: 724 000 32 43
KONTAKT​​​​​​​

Funduszepleu
Projekt Multiportalu UŁ współfinansowany z funduszy Unii Europejskiej w ramach konkursu NCBR