Співробітники OpenAI попередили про небезпеки просунутого ШІ

Дата:

Співробітники OpenAI попередили про небезпеки просунутого ШІ

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

Кілька нинішніх і колишніх співробітників OpenAI і Google DeepMind виступили з відкритим листом, у якому попереджають про небезпеки просунутого ШІ та відсутність контролю за компаніями, що працюють над ШІ-технологіями.

На думку співробітників, розвиток ШІ несе в собі низку ризиків, включно з подальшим укоріненням наявної у світі нерівності, маніпуляціями і дезінформацією, а також втратою контролю над автономними ШІ-системами, що, як ідеться в листі, може призвести до вимирання людства.

Компанії, що займаються розробкою штучного інтелекту, мають “сильні фінансові стимули” для того, щоб продовжувати розробку і не ділитися інформацією про заходи захисту та рівень ризику.

ПРОДОВЖЕННЯ ПІСЛЯ РЕКЛАМИ

“Ми не думаємо, що на них можна покластися в тому, що вони будуть ділитися нею добровільно”, – наголошується в листі, в якому йдеться про те, що нинішні і колишні співробітники повинні висловити свою думку.

Співробітники в кінцевому підсумку закликають компанії, що займаються розробкою штучного інтелекту, забезпечити надійний захист джерел, що розкривають інформацію про ризики, пов’язані зі штучним інтелектом:

  • Уникайте створення або примусового виконання угод, що перешкоджають критиці щодо проблем, пов’язаних із ризиками.
  • Запропонуйте співробітникам перевірений анонімний процес, що дає змогу донести інформацію про пов’язані з ризиками проблеми до ради директорів, регулювальних органів і незалежних організацій, які мають відповідний досвід.
  • Підтримуйте культуру відкритої критики, що дозволяє співробітникам висловлювати громадськості, раді директорів, регулювальним органам тощо побоювання, пов’язані з ризиками, що стосуються технологій, за умови захисту комерційної таємниці.
  • Не допускайте репресій щодо співробітників, які публічно діляться конфіденційною інформацією, пов’язаною з ризиками, після того як інші процеси не дали результатів.

Лист підписали 13 осіб, зокрема сім колишніх співробітників OpenAI, чотири нинішніх, один колишній співробітник Google DeepMind і ще один чинний співробітник Google DeepMind. OpenAI погрожує працівникам втратою їхньої пайової участі за висловлювання, а також змушує їх підписувати “драконівські” NDA, які перешкоджають критиці на адресу компанії.

Лист з’явився в той момент, як Apple готується анонсувати безліч функцій, заснованих на штучному інтелекті, в iOS 18 та інших оновленнях програмного забезпечення найближчого понеділка. компанія працює над власними функціями штучного інтелекту, які будуть вбудовані в додатки по всій операційній системі, а також уклала угоду з OpenAI для інтеграції функцій ChatGPT в iOS 18.

Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту та натисніть Ctrl+Enter.

Свіжі новини

З початку війни в Ірані загинуло понад 700 мирних жителів

0
За даними американського інформаційного агентства правозахисників (HRANA), з початку війни в Ірані в суботу загинуло понад 700 людей. Про це пише «Главком» із посиланням...

На Дніпропетровщині чоловік перевозив в електричці ракету-перехоплювач

0
На Дніпропетровщині місцевий житель під час риболовлі на водоймі поблизу села Калинівка виявив ракету-перехоплювач. Замість того щоб залишити небезпечну знахідку на місці та повідомити...

Поділитися:

Популярне

Новини
Актуальні

OnePlus 16 може отримати 200 Мп камеру: у мережі з’явилися перші подробиці

У мережі оприлюднили перші витоки про OnePlus 16. За...

Екран залишився “старим”, але потужність вражає: Apple представила новий iPad Air на чипі M4

Apple представила оновлений iPad Air у двох розмірах —...

Apple представила iPhone 17e: більше пам’яті без підвищення ціни, але з нюансами

Apple офіційно показала новий бюджетний смартфон — iPhone 17e....