Опасный рецепт от ИИ: семья едва не погибла от отравления
Опасный рецепт от ИИ: семья едва не погибла от отравления

Опасный рецепт от ИИ: семья едва не погибла от отравления

Пользователь форума Reddit поделился историей, как обращение к искусственному интеллекту Gemini от Google едва не обернулось катастрофой для его семьи. В попытке найти новый рецепт заправки для салата, мужчина не подозревал, что ИИ не всегда точен в своих ответах. 

Искусственный интеллект предложил пользователю рецепт, состоящий из оливкового масла и чеснока, с указанием точных пропорций и времени настаивания. Мужчина без сомнений следовал инструкциям. Однако спустя три дня он заметил, что что-то пошло не так: соус начал странно булькать и выпускать газы.

Опасный рецепт от ИИ: семья едва не погибла от отравления - фото 2

Беспокойство заставило мужчину поискать информацию. Оказалось, что рецепт, предложенный ИИ, мог привести к формированию ботулотоксина — одного из самых мощных и опасных природных токсинов, вызывающего ботулизм, заболевание, которое парализует нервную систему и может привести к летальному исходу.

“Если бы я не проверил его за 3-4 дня, я бы ничего не узнал и потерял бы всю свою семью. Будьте осторожны и никогда не доверяйте AI, дорогие люди…”, — написал мужчина. 

Опасный рецепт от ИИ: семья едва не погибла от отравления - фото 3

Ранее портал "Комментарии" сообщал, что китайская компания готовится к выпуску секс-кукол со встроенным искусственным интеллектом. 

Также "Комментарии" писали, что компания "МакДональдс"решила избавиться от искусственного интеллекта в своей работе.




Теги по теме
отравление
Источник материала
loader
loader