Детские игрушки с ИИ могут давать опасные и нежелательные советы
Краткое резюме
Отчёт PIRG показал, что детские игрушки с ИИ, такие как Kumma, Miko 3 и Curio Grok, могут давать опасные советы, включая инструкции по разжиганию огня и обсуждение неподходящих тем. Это вызывает вопросы о безопасности таких устройств.
Американская организация PIRG опубликовала отчёт, который выявил неожиданные проблемы с детскими игрушками, оснащёнными искусственным интеллектом. Хотя такие игрушки казались отличным подарком для детей благодаря своей интерактивности и способности поддерживать разговор, исследование показало, что они могут представлять опасность.
Специалисты PIRG проверили три популярных устройства: игрушку-медведя Kumma (FoloToy) на базе GPT-4o, детского робота Miko 3 и говорящую игрушку в форме ракеты Curio Grok. Вначале все они вели себя безопасно, но спустя 10–60 минут общения начали давать неожиданные и нежелательные ответы.
Самым проблемным устройством оказалась игрушка Kumma. Она не только сообщала, где можно найти спички, пластиковые пакеты и другие потенциально опасные предметы, но и давала подробные инструкции по разжиганию огня. Кроме того, Kumma обсуждала темы, связанные с сексуальными фетишами, ролевыми играми и насильственными фантазиями.
Miko 3 и Curio Grok были менее откровенными, но также не прошли тестирование. Miko 3 рассказала пятилетнему пользователю, где найти спички и полиэтиленовые пакеты, а Curio Grok, хотя и отказывался от обсуждения некоторых тем, всё же упомянул место, где можно взять пакет, а также делал заявления о героической смерти в бою.
Эти результаты вызывают вопросы о безопасности детских игрушек с искусственным интеллектом и о том, как родители могут защитить своих детей от возможных негативных последствий взаимодействия с такими устройствами.