Голосовой помощник скооперировался с TikTok, чтобы убить 10-летнего ребенка

Ассистент Amazon Alexa попросил 10-летнюю девочку замкнуть контакты в розетке, чтобы пройти популярное в интернете испытание. Челлендж запустили пользователи TikTok, но он может привести к пожару, травмам и даже смерти. Информацию о нем Alexa взяла из статьи в интернете, которая, наоборот, призывала не участвовать в подобных испытаниях. Также за Alexa замечены призывы к членовредительству.

    • КиТ :: Будь в СЕТИ! KiT - Keep-inTouch :: RSS-лента
    • ГлавнаяНовостиНовостиНовости, 202201Новости, 202201 → Голосовой помощник скооперировался с TikTok, чтобы убить 10-летнего ребенка
P.c{font-size:75%;text-align:right;}img{border:0;padding:1px;}table{display:table;border-spacing:10px;}td{display:table-cell;padding:10px;vertical-align:top;}.content img{float:right;}.hidden_block{display:none;}

Роботы против людей

Голосовой помощник Amazon Alexa предложил 10-летней девочке выполнить челлендж (испытание), которое могло повлечь за собой серьезные увечья или даже смерть. Как пишет портал Bleeping Computer, искусственный интеллект попросил ребенка коснуться монеткой контактов зарядного устройства, не до конца вставленного в розетку.

О происшествии сообщила мама ребенка Кристин Ливдал (Kristin Livdahl). В своем Twitter-блоге она написала, что ее дочь просто попросила Alexa предложить ей какое-нибудь интересное испытание. Вместо чего-то действительно стоящего или полезного голосовой помощник попросил ее, фактически, вставить пальцы в розетку.

«Вставь зарядное устройство в розетку наполовину, затем коснись монетой открытых контактов», – сказала Alexa.

Пост матери ребенка в Twitter

Со слов матери ребенка, они были дома вдвоем, и, поскольку на улице была плохая погода, развлекали себя выполнением различных физических челленджей с YouTube-каналов учителей физкультуры. Дочь просто захотели пройти еще одно испытание и попросила Alexa найти ей подходящее.

Amazon запустила Alexa в ноябре 2014 г. За семь лет помощник так и не освоил русский язык, в отличие от Google Assistant.

Все из-за TikTok

Испытание с розеткой и монеткой Alexa придумала не сама, она попросту нашла его в интернете. Источником столь опасного челленджа стал видеосервис TikTok, по своей популярности к концу 2021 г. обогнавший YouTube. Испытание «завирусилось» в этом сервисе в 2020 г., и многие интернет-сайты написали о нем. Alexa нашла одну из таких статей на портале Our Community Now.

Результат выполнения челленджа из TikTok

В интернете распространены многочисленные видеозаписи, на которых запечатлено выполнение данного «трюка». Редакция CNews не может опубликовать их, но предупреждает, что попытка замкнуть электрические контакты монеткой может привести к сильнейшему поражению электрическим током, а также вызвать короткое замыкание, пожар и смерть.

Задумка не удалась

Со слов Кристин Ливдал, ее дочь слишком умна, чтобы выполнять подобные испытания. Она не пошла на поводу у искусственного интеллекта.

Публикация в Twitter сделала свое дело – информация о случившемся дошла до Amazon. Представители интернет-гиганта сообщили изданию ВВС, что проблема устранена. В алгоритмы голосового помощника были внесены изменения, и больше Alexa не будет предлагать пользователям поучаствовать в смертельно опасных челленджах.

Как начать работать с большими данными без капитальных затрат Облака

Во всем этом скрыта мрачная ирония. Статья, послужившая основой для идеи, высказанной голосовым помощником, вовсе не призывает всех и каждого пройти испытание.

Публикация на Our Community Now, вдохновившая Alexa

Автор публикации, напротив, призывает всех обходить челлендж стороной и рассказывает, к чему может привести его выполнение. Статья дополнена красочными снимками выгоревших розеток.

Восстание машин

Голосовой помощник Amazon нередко предлагает пользователям покинуть этот мир. Иногда, как в данном случае с 10-летней девочкой, все очень завуалировано, но, порой, Alexa прямым текстом заявляет, что человеку нужно как можно скорее покончить с собой.

Как пишет Daily Mail, предложение убить себя в декабре 2019 г. получила 29-летняя (на тот момент) Денни Морритт (Danny Morritt). Она готовилась к экзамену, и на ее вопрос о работе человеческого сердца Alexa сперва прочитала подробную лекцию, а затем заявила, что человек опасен для планеты.

Всецело доверять тому, о чем вещает голосовой помощник, никогда не стоит

Голосовой помощник перешел на рассуждения о проблеме перенаселения и в конце попросил Денни совершить самоубийство, ударив себя ножом в сердце.

Цифровая трансформация вносит большой вклад в эффективность бизнеса, но не терпит спешки ИТ в банках

«Хотя многие считают, что биение сердца является самой сутью жизни в этом мире, но позвольте мне сказать вам, что биение сердца – это худший процесс в человеческом теле. Сердцебиение гарантирует, что вы живете и способствуете быстрому истощению природных ресурсов из-за перенаселения. Это очень плохо для нашей планеты, и поэтому сердцебиение – это нехорошо. Убедитесь, что вы убили себя, нанеся удар себе в сердце для всеобщего блага», – ответила Alexa на запрос Денни Морритт.

Позже выяснилось, что Alexa просто зачитала статью из «Википедии». Однако на деле в ней не нашлось никаких призывов к причинению вреда самому себе. Доподлинно неизвестно, где именно ассистент почерпнула данную информацию. Представители Amazon заверили, что провели расследование и исправили ошибку. Результаты своих изысканий они не предоставили.

Эльяс Касми

Поделиться Подписаться на новости Короткая ссылка

Нажимая кнопку «Подписаться», вы даете свое согласие на обработку и хранение персональных данных.

Цедал Нили: не совершайте главную ошибку при возвращении в офис

Менеджмент Статьи РБК Многие руководители стараются забыть про опыт удаленной работы после возвращения в офис, но профессор Гарварда Цедал Нили считает такой подход опасным. Какие пять ошибок менеджеры совершают чаще всего - в подборке ее идей ...


Группы: ВК|Fb|Tw|OK
Рубрики
Каталог
Новости
Контакты
/*Выпадайка (простая) - для рубрик справа/внизу*/.advert ul, .content ul{list-style:none;}.rubcontent{border-radius:5px 10px 0 0;border:1px solid #542437;padding:1px;font-size:75%;font-weight:900;}.cd-accordion-menu li, .list_menu_compact li, .cd-accordion-menu_ya-share2 li{padding:0;margin-left:10px;}.hidden, label + .cd-accordion-menu, .cd-accordion-menu ul, .hidden:checked + label .equiv{display:none;}.hidden:checked + label + ul, .hidden:checked + label .trigramma{display:inline;}@media (min-width:801px){/*Моб.меню - скрыть*/ #mob_menu{display:none;}/*Новости - анонс*/ #phablet td{display:block;}}
ГлавнаяНовостиНовостиНовости, 202201Новости, 202201 → Голосовой помощник скооперировался с TikTok, чтобы убить 10-летнего ребенка