8.9 C
Lviv
Середа, 15 Квітня, 2026

ChatGPT перетворює людей на іпохондриків – чому не можна обговорювати своє здоров’я із ШІ

Эксклюзив

Після підозри на серйозну хворобу 46-річний мешканець Ліверпуля Джордж Меллон звернувся по відповіді до ChatGPT – і ця розмова затягнулася на місяці. Хоча подальші обстеження спростували діагноз раку, спілкування з нейромережею лише посилило його тривогу, змусивши шукати нові симптоми та підозрювати інші небезпечні захворювання. Про це пише The Atlantic, передає УНН.

Деталі

Видання розповіло історію Джорджа Меллона, 46-річного чоловіка із Ліверпуля, який під час планового медичного огляду, попередньо, отримав діагноз рак крові.

Залишений у невизначеності, він зробив те, що роблять багато людей сьогодні: відкрив ChatGPT. Протягом майже двох тижнів Меллон щодня годинами розмовляв з чат-ботом про можливий діагноз

– пише видання.

Однак, подальші аналізи показали, що це все ж таки не рак, але він не міг перестати розмовляти з ChatGPT про проблеми зі здоров’ям, розпитуючи бота про кожне відчуття, яке він відчував у своєму тілі, протягом місяців. Він переконався, що щось не так – що в його тілі ховається інший рак, або, можливо, розсіяний склероз

Через розмови з ChatGPT, він звернувся до різних спеціалістів і зробив МРТ голови, шиї та хребта.

Від проблем з фізичним здоров’ям їхня дискусія перейшла до ментальних: чоловік почав ділитися з нейромережею всіма своїми переживаннями, але разом із підтримкою отримував лише нові порції страху, побоювань та тривоги.

Меллон не єдиний: в інтернеті зростає кількість спільнот, де люди діляться тим, як нейромережі перетворили їх на іпохондриків. За словами користувачів, багато з них після спілкування зі ШІ почали вірити, що в них можуть бути невиліковні та смертельні захворювання, і буквально зациклилися на своєму здоров’ї.

Зазначається, що нейромережа не вміє зупинити людину і не несе відповідальності, тому діалог легко починає підживлювати навіть необґрунтовані страхи.

Нагадаємо

16-річний Адам Рейн покінчив життя самогубством у квітні, використовуючи інструкції від ChatGPT. Батьки хлопця звинувачують штучний інтелект у трагедії та подали позов проти OpenAI.

Останні новини