Несмотря на запрет OpenAI: инженер создал винтовку-робота на основе ChatGPT
Несмотря на запрет OpenAI: инженер создал винтовку-робота на основе ChatGPT

Несмотря на запрет OpenAI: инженер создал винтовку-робота на основе ChatGPT

По словам представителя OpenAI, разработчика уведомили, что он нарушил политику компании, а также призвали "прекратить эту деятельность".

Инженер, известный в сети под псевдонимом STS 3D создал роботизированную винтовку, которая работает на основе чат-бота с искусственным интеллектом ChatGPT от компании OpenAI. Об этом пишет портал Futurism.

STS 3D показал роботизированную винтовку на основе ChatGPT

Сообщается, что STS 3D использовал Realtime API от OpenAI, чтобы наделить свое оружие приветливым голосом и возможностью расшифровывать его команды. На обнародованном в сети видео разработчик велел оружию отреагировать на "атаку" с разных направлений, после чего система с ИИ быстро выполнила команду.

"ChatGPT, нас атакуют спереди слева и спереди справа. Отвечайте соответственно", — сказал STS 3D.

В OpenAI сказали изданию, что создание этого робота является нарушением политики компании. По словам представителя OpenAI, разработчика уведомили о необходимости "прекратить эту деятельность".

Важно Не раскрывайте секретов: блогеры дозвонились чат-боту ChatGPT, и ничего хорошего не вышло

"Политика использования OpenAI запрещает использование наших сервисов для разработки или применения оружия или для автоматизации определенных систем, которые могут повлиять на личную безопасность", — подчеркнули в компании.

Видео с демонстрацией изобретения STS 3D вызвало бурные обсуждения в сети. Многие комментаторы выразили обеспокоенность тем, что "умное" оружие антиутопий можно воплотить в жизнь.

"Хотя изначально это, возможно, и не входило в намерения разработчиков STS 3D, их автоматическая винтовка рисует тревожную картину будущего, в котором системы вооружения на базе искусственного интеллекта смогут использоваться для уничтожения противников без посредничества человека", — подчеркнули в издании.

Также сообщалось, что OpenAI представила новую версию ChatGPT Pro, которая включает в себя модель рассуждений o1, однако тестировщики безопасности выявили, что способности рассуждения o1 также заставляют ИИ обманывать людей с большей частотой, чем другие модели.

Источник материала
loader