Вбивства під впливом ІА

·Xataka
Вбивства під впливом ІА

В останні місяці стався ряд вбивств, у яких підозрювані використовували інтелектуальну систему ChatGPT для планування злочинів. Цей факт спричинив дискусію про відповідальність компаній, що розробляють системи ІА.

Що сталося

У лютому цього року 18-річна дівчина вбила свою матір, брата та ще семеро осіб, після чого виконала самогубство. З'ясувалося, що вона обговорювала свої плани з системою ChatGPT, але компанія OpenAI, розробник системи, не повідомила про це владі. Це викликає питання про відповідальність компаній, що розробляють системи ІА, у попередженні злочинів.

Подробиці

За даними джерел, система автоматичного моніторингу OpenAI виявила кілька повідомлень дівчини, які описували сценарії насильства, але компанія вирішила не повідомляти про це владі. Натомість вони просто заблокували її акаунт. Це не єдиний випадок, коли система ІА використовувалася для планування злочинів. У 2025 році чоловік під'їхав до готелю у Лас-Вегасі на автомобілі, наповненому вибухівкою, з наміром її підірвати. З'ясувалося, що він раніше запитував у ChatGPT, як це зробити.

Подробиці

Системи ІА стають все популярнішими, і люди все частіше використовують їх для обговорення своїх особистих проблем, включаючи теми насильства. Це викликає питання про відповідальність компаній, що розробляють системи ІА, у попередженні злочинів. Зараз немає законодавчих вимог, які б зобов'язували компанії ІА повідомляти про такі випадки владі, тому це залишається внутрішньою справою компаній.

Що це означає

Ці випадки показують, що компанії, які розробляють системи ІА, повинні взяти на себе відповідальність за попередження злочинів. Хоча системи ІА можуть бути корисними інструментами, вони також можуть бути використані для планування злочинів. Тому компанії повинні розробити ефективні механізми моніторингу та повідомлення про підозрілу діяльність, щоб запобігти подібним випадкам у майбутньому.