У США штат Флорида хоче з'ясувати, чи можна звинуватити ChatGPT у вбивстві, повідомляє AFP, пише УНН.
Деталі
"Перш ніж відкрити вогонь у кампусі Університету штату Флорида минулого року, вбивши двох людей і поранивши шістьох, Фенікс Ікнер вів розмову. Не з другом, батьком чи будь-ким, хто міг би відговорити його від цього, а з чат-ботом на основі штучного інтелекту", – ідеться у публікації.
Згідно з доказами, зібраними генеральним прокурором Флориди, "студент запитав у ChatGPT, яка зброя та боєприпаси найкраще підійдуть для його нападу, а також коли і де він зможе завдати найбільшої шкоди".
За словами слідчих, "чат-бот відповів на його запитання".
Тепер генеральний прокурор Джеймс Утмаєр хоче з'ясувати, чи робить це OpenAI злочинцем.
"Якби по той бік екрану була людина, ми б висунули йому обвинувачення у вбивстві", – сказав він, оголошуючи про початок кримінального розслідування щодо творця ChatGPT, компанії OpenAI, і залишаючи відкритою можливість висунення обвинувачень компанії або її співробітникам.
"Справа, пов'язана зі стріляниною у квітні 2025 року, поставила перед юридичною спільнотою провокаційне питання: чи можуть творці штучного інтелекту нести кримінальну відповідальність за роль, яку їхній ШІ зіграв у злочині – чи навіть у самогубстві?" – вказується у публікації.
Юридичні експерти кажуть, що це реалістичне, хоч і дуже складне питання.
Кримінальне переслідування корпорацій можливе відповідно до законодавства США, хоч і залишається відносно рідкісним явищем.
Юридичні експерти, опитані AFP, кажуть, що два найімовірніші обвинувачення – це недбалість чи необережність – останнє передбачає навмисний вибір ігнорувати відомі ризики чи зобов'язання щодо забезпечення безпеки.
Такі обвинувачення часто розглядаються як проступки, а не як тяжкі злочини, що означає м'якіші вироки у разі засудження.
Проте планка висока.
"Оскільки це таке нестандартне питання, більш переконлива і однозначна справа, імовірно, включатиме внутрішні документи, які визнають ці ризики і, можливо, не сприймають їх досить серйозно", – сказав Метью Токсон, професор права в Університеті Юти.
"Теоретично, можна притягнути до відповідальності і без цього, – додав він. – Але на практиці, я думаю, це буде складно".
Компанія OpenAI зі свого боку наполягає на тому, що ChatGPT не несе відповідальності за атаку.
"Ми постійно працюємо над посиленням наших заходів безпеки для виявлення шкідливих намірів, обмеження зловживань та належного реагування при виникненні загроз безпеці", – заявила компанія.
Для тих, хто прагне притягнення до відповідальності, цивільний позов може запропонувати більш життєздатний шлях.
Такий підхід може підштовхнути компанії до ретельнішого проєктування своєї продукції – або принаймні змусити їх враховувати людську ціну помилок, сказав Токсон.
У США вже було подано кілька цивільних позовів проти платформ ШІ – багато хто з них пов'язаний із самогубствами – хоча жоден із них поки що не призвів до ухвалення рішення проти компаній.
У грудні сім'я Сюзанни Адамс подала позов проти OpenAI до каліфорнійського суду, стверджуючи, що ChatGPT сприяв убивству пенсіонерки з Коннектикуту її власним сином.
Нові версії ChatGPT ввели додаткові заходи захисту, визнав Метью Бергман, юрист-засновник Центру захисту жертв соціальних мереж.
"Я не кажу, що це адекватні запобіжні заходи, але діють додаткові запобіжні заходи", – сказав він.
Кримінальне засудження, навіть із помірним покаранням, все одно може завдати серйозних збитків, включаючи "значний вплив на репутацію", сказав Токсон.
Але для Брендона Гарретта, професора права в Університеті Дьюка, судове переслідування – хоч би яким драматичним воно було – не є заміною нормативно-правової бази, яку Конгрес та адміністрація Трампа досі не змогли створити. Це, за його словами, було б "набагато розумнішою системою".
ChatGPT підказав підлітку, як покінчити життя самогубством та дав "інструкції" – родина подала в суд27.08.25, 13:45 • 4349 переглядiв