Anthropic змінив політику безпеки

·Xataka
Anthropic змінив політику безпеки

Компанія Anthropic змінила свою політику безпеки, відмовившись від автоматичного блокування розробки моделей штучного інтелекту, якщо вони стають надто потужними. Це рішення викликає занепокоєння щодо майбутнього безпеки штучного інтелекту.

Що сталося

Компанія Anthropic, заснована колишніми керівниками OpenAI, змінила свою політику безпеки щодо розробки моделей штучного інтелекту. Тепер компанія відмовилася від автоматичного блокування розробки моделей, якщо вони стають надто потужними та потенційно небезпечними. Це рішення викликає занепокоєння щодо майбутнього безпеки штучного інтелекту.

Подробиці

До цього часу політика Anthropic передбачала зупинку розробки моделей, якщо їхні можливості перевищували здатність компанії забезпечити належний контроль. Тепер компанія замінила цей механізм на серію публічних зобов'язань та періодичних звітів про ризики, аудитованих незалежними експертами. Компанія мотивує це рішення конкурентним середовищем та відсутністю регулювання штучного інтелекту в США. За словами директора наукової частини Jared Kaplana, компанія не хоче бути лідером у сфері безпеки, якщо конкуренти продовжують розвивати свої моделі без обмежень.

Компанія Anthropic була заснована колишніми керівниками OpenAI, які покинули свою попередню компанію через незгоду з політикою безпеки. Тепер компанія стикається з критикою щодо свого рішення, яке може привести до подальшої ескалації розвитку штучного інтелекту без належного контролю.

Що це означає

Це рішення Anthropic може мати серйозні наслідки для майбутнього безпеки штучного інтелекту. Якщо компанії не будуть дотримуватися строгих стандартів безпеки, це може привести до створення моделей, які можуть бути використані для шкідливих цілей. Тому важливо, щоб компанії, які займаються розробкою штучного інтелекту, дотримувалися високих стандартів безпеки та співпрацювали з регулюючими органами для забезпечення безпеки цієї технології.