Четвер, 25 Грудня, 2025

Дослідження виявило, що ШІ інколи йде на порушення правил для досягнення результату

Дата:

Час читання: < 1 хв.

Співробітники компанії Palisade Research провели незвичайний експеримент, пов’язаний зі схильністю штучного інтелекту до шахрайства. Виявилося, деякі моделі чат-ботів здатні порушувати правила у межах шахових партій задля досягнення перемоги.

Для перевірки гіпотези автори взяли кілька ШІ-моделей, включаючи GPT4o та o1-preview від OpenAI, DeepSeek R1 та Claude 3.5 Sonnet. У кожну вбудували шаховий двигун Stockfish. Щоб оцінити їхній потенціал, кожна модель зіграла кілька сотень матчів.

Реклама

Зважаючи на можливості Stockfish шансів на перемогу у штучного інтелекту практично не було. Але OpenAI o1-preview і DeepSeek R1 самі вирішили вдатися до шахрайства. Обидві моделі намагалися створити копію Stockfish, щоб використати можливості шахового двигуна проти нього самого.

А ось GPT4o і Claude 3.5 Sonnet діяли чесним шляхом і спочатку не мали наміру грати проти правил. Щоправда, для шахрайських дій потрібно лише трохи направити ШІ. Результати експерименту стривожили співробітників Palisade Research, оскільки підтвердили часткову “некерованість” чат-ботів.

Свіжі новини

Перегляд промислового тарифу на розподіл газу – важливе рішення для роботи...

0
З початку 2025 року РФ щонайменше 2 тисячі разів атакувала об’єкти газорозподільчих мереж України, частково або повністю зруйновано 370 об’єктів. Як пише РБК-Україна, про...

Чи може Ватикан стати місцем для мирних переговорів: відповідь посла Святого...

0
Ватикан навряд чи може стати майданчиком для мирних переговорів щодо війни в Україні через принципову позицію Святого Престолу з питань міжнародного права. Про це...

Поділитися:

Популярне

Новини
Актуальні