Неділя, 6 Липня, 2025

Дослідження виявило, що ШІ інколи йде на порушення правил для досягнення результату

Дата:

Час читання: < 1 хв.

Співробітники компанії Palisade Research провели незвичайний експеримент, пов’язаний зі схильністю штучного інтелекту до шахрайства. Виявилося, деякі моделі чат-ботів здатні порушувати правила у межах шахових партій задля досягнення перемоги.

Для перевірки гіпотези автори взяли кілька ШІ-моделей, включаючи GPT4o та o1-preview від OpenAI, DeepSeek R1 та Claude 3.5 Sonnet. У кожну вбудували шаховий двигун Stockfish. Щоб оцінити їхній потенціал, кожна модель зіграла кілька сотень матчів.

Реклама

Зважаючи на можливості Stockfish шансів на перемогу у штучного інтелекту практично не було. Але OpenAI o1-preview і DeepSeek R1 самі вирішили вдатися до шахрайства. Обидві моделі намагалися створити копію Stockfish, щоб використати можливості шахового двигуна проти нього самого.

А ось GPT4o і Claude 3.5 Sonnet діяли чесним шляхом і спочатку не мали наміру грати проти правил. Щоправда, для шахрайських дій потрібно лише трохи направити ШІ. Результати експерименту стривожили співробітників Palisade Research, оскільки підтвердили часткову “некерованість” чат-ботів.

Свіжі новини

Ізраїль розкритикував нові вимоги ХАМАС у перемовинах

0
Ізраїльська сторона виступила з різкою критикою щодо останніх змін, які угруповання ХАМАС запропонувало внести до проекту угоди про звільнення заручників у Секторі Газа. Про...

Топ способів посилити Wi-Fi сигнал у квартирі та офісі

0
Час читання: 3 хв.Сьогодні важко уявити наше життя без інтернету. Ми хочемо не просто мати доступ до мережі вдома, а щоб сигнал був...

Поділитися:

Популярне

Новини
Актуальні

Топ способів посилити Wi-Fi сигнал у квартирі та офісі

Час читання: 3 хв.Сьогодні важко уявити наше життя...