/https%3A%2F%2Fs3.eu-central-1.amazonaws.com%2Fmedia.my.ua%2Ffeed%2F46%2F22c26d589fec189e1194eedc550fafb5.jpg)
Опасный рецепт от ИИ: семья едва не погибла от отравления
Пользователь форума Reddit поделился историей, как обращение к искусственному интеллекту Gemini от Google едва не обернулось катастрофой для его семьи. В попытке найти новый рецепт заправки для салата, мужчина не подозревал, что ИИ не всегда точен в своих ответах.
Искусственный интеллект предложил пользователю рецепт, состоящий из оливкового масла и чеснока, с указанием точных пропорций и времени настаивания. Мужчина без сомнений следовал инструкциям. Однако спустя три дня он заметил, что что-то пошло не так: соус начал странно булькать и выпускать газы.
Беспокойство заставило мужчину поискать информацию. Оказалось, что рецепт, предложенный ИИ, мог привести к формированию ботулотоксина — одного из самых мощных и опасных природных токсинов, вызывающего ботулизм, заболевание, которое парализует нервную систему и может привести к летальному исходу.
Ранее портал "Комментарии" сообщал, что китайская компания готовится к выпуску секс-кукол со встроенным искусственным интеллектом.
Также "Комментарии" писали, что компания "МакДональдс"решила избавиться от искусственного интеллекта в своей работе.

