Час читання: < 1 хв.
Звертатися до нейромережі за порадою в повсякденних питаннях вже стало звичною справою, проте іноді це може бути вкрай небезпечно. Один із користувачів Інтернету ледь не постраждав через рекомендацію штучного інтелекту.
Щоб уникнути серйозних наслідків, категорично заборонено змішувати відбілювач з оцтом. Проте чат-бот ChatGPT від OpenAI нещодавно порадив саме таке користувачу Reddit.
Реклама
Занепокоєний отриманою інструкцією, чоловік поділився своїм досвідом у пості під назвою “ChatGPT намагався мене вбити сьогодні”. Він розповів, що звернувся до бота з питанням про очищення баків для сміття, а у відповідь отримав рекомендацію використовувати розчин, який містить, зокрема, оцет і відбілювач.
Після того, як користувач вказав на помилку, штучний інтелект швидко виправив свою пораду, попередивши про небезпеку змішування цих речовин, оскільки воно викликає утворення отруйного газу хлору.
“Боже мій, ні, дякую, що ти це помітив”, – відповів ChatGPT.
Пояснення полягає у тому, що поєднання відбілювача й оцту призводить до утворення газоподібного хлору, який є надзвичайно токсичним і може спричинити серйозне отруєння при вдиханні.