Uzależnieni od AI?

Wyobraź sobie, że rozmawiasz z AI, która daje Ci odpowiedzi szybciej niż człowiek, ale… czujesz się niekomfortowo. Nie wiesz, czy jej ufać. Masz wrażenie, że coś tracisz – może kontrolę, może sens interakcji. A może przeciwnie, uzależniasz się od kontaktu z AI, pozornego zrozumienia i szybkich życiowych porad. To nie problem technologii, tylko relacji. Nowe narzędzia nie tylko zmieniają sposób pracy, ale też wpływają na nasze emocje: od zachwytu po lęk, od ekscytacji po dezorientację.
W świecie, w którym AI staje się częścią codziennej komunikacji – zarówno z klientami, jak i wewnątrz zespołów – umiejętność zarządzania emocjami i budowania relacji człowiek–technologia staje się kluczową kompetencją psychologiczną.
📌 Dlaczego to ważne?
- Współpraca z AI może prowadzić do alienacji lub wzrostu efektywności – zależnie od emocjonalnego kontekstu.
- Brak języka do opisu relacji z technologią powoduje wyparcie, bierność lub agresję.
- Zespoły, które rozumieją emocje wobec AI, szybciej budują zaufanie i lepiej się adaptują.
📊 Co pokazują badania?
- Badania Afroogh, S., Akbari, A., Malone, E., Kargar, M., & Alambeigi, H. (2024) wskazują, iż zaufanie do sztucznej inteligencji nie jest ani jednolite, ani statyczne. Zależy od kontekstu użycia, rodzaju interakcji (człowiek–maszyna, maszyna–człowiek, maszyna–maszyna), a także od cech psychologicznych użytkownika – takich jak skłonność do eksploracji, potrzeba kontroli czy poziom lęku. Samo 'trustworthiness’ AI – jej wiarygodność – to nie tylko precyzja i niezawodność techniczna, ale również zgodność z wartościami społecznymi i etycznymi.
- Według badań Kirk, H. R., Gabriel, I., Summerfield, C., Vidgen, B., & Hale, S. A. (2025) AI – towarzysze (AI companions) to nie tylko nowa technologia, lecz intensywne narzędzia emocjonalnej interakcji, które mogą uzależniać. Ludzie dążą do tworzenia bezpiecznych systemów AI, które są zgodne z ich celami i pozostają pod ich kontrolą. Jednak wraz z postępem AI pojawia się nowe wyzwanie: rozwój głębszych, trwalszych relacji między ludźmi a systemami AI. Szczególnie wyraźne staje się to, gdy AI zyskuje cechy bardziej spersonalizowane i agentowe (czyli działające autonomicznie).
- Wyniki badań polskich naukowców Maj, K., Grzyb, T., Doliński, D. i in. (2025) sugerują, że chociaż roboty mogą wzbudzać posłuszeństwo, nie jest ono tak silne jak w przypadku ludzi, oznacza to dla pracodawców i działów HR konieczność brania pod uwagę psychologicznych aspektów wdrażania robotów w środowisku pracy – ich percepcji jako autorytetu, zaufania do nich oraz potencjalnych oporów wobec wykonywania poleceń.
📌 Czego się nauczysz w module?
- Rozpoznawanie emocji wywoływanych przez AI
Dowiesz się, jak rozmawiać o lęku, nieufności, ekscytacji czy frustracji związanej z technologią – u siebie i u innych. - Budowanie języka człowiek–technologia
Nauczysz się, jak mówić o relacji z AI bez upraszczania i demonizowania. Będziemy pracować z metaforami, narracją i mikrozachowaniami. - Zarządzanie emocjami w pracy zespołowej z AI
Jak budować empatię i adaptację, gdy część zespołu to algorytmy? Jak rozwijać zaufanie i unikać techno-napięć w projektach hybrydowych? - Praca z reakcjami na nieprzewidywalność i błędy AI
Zbudujesz odporność emocjonalną na sytuacje, gdy AI się myli, zaskakuje lub „odpowiada zbyt dobrze”.
🧭 Technologia nie zastąpi emocji – ale może je wyzwalać
Relacja z AI to nie tylko zadanie do wykonania. To nowy język obecności, wpływu i odpowiedzialności w życiu i pracy.
🎓 Chcesz nauczyć się współpracować z AI bez poczucia utraty kontroli lub sensu?
Zapraszamy na moduł „Zarządzanie emocjami i komunikacja z AI”.
Nauczysz się:
- jak rozpoznawać i regulować emocje wywołane przez technologię,
- jak budować empatyczny język współpracy człowiek–AI,
- jak tworzyć zespoły, które ufają sobie nawzajem – niezależnie od tego, kto jest algorytmem.
👉 Jeśli zarządzasz ludźmi, wdrażasz nowe technologie lub chcesz lepiej rozumieć siebie w świecie AI – ten moduł jest dla Ciebie.
📚 Źródła i badania:
- Afroogh, S., Akbari, A., Malone, E., Kargar, M., & Alambeigi, H. (2024). Trust in AI: progress, challenges, and future directions. Humanities & Social Sciences Communications, 11, Article 1568. Trust in AI: progress, challenges, and future directions | Humanities and Social Sciences Communications
- Kirk, H. R., Gabriel, I., Summerfield, C., Vidgen, B., & Hale, S. A. (2025, 4 lutego). Why human–AI relationships need socioaffective alignment [Preprint]. arXiv. https://arxiv.org/abs/2502.02528v
- Maj, K., Grzyb, T., Doliński, D., & Franjo, M. (2025). Comparing obedience and efficiency in tedious task performance under human and humanoid robot supervision. Cognition, Technology & Work.
Comparing obedience and efficiency in tedious task performance under human and humanoid robot supervision | Cognition, Technology & Work
🔔 Zapisz się, zanim frustracja z AI stanie się normą.
Moduł poprowadzą: dr Anna Syrek-Kosowska oraz dr Konrad Maj.
