Microsoft разогнала экспертов по этике ИИ, которые мешали повторить триумф ChatGPT

- КиТ :: Будь в СЕТИ!

Microsoft упразднила комиссию по этике и обществу, курировала соблюдение компанией принципов отвественного использования искусственного интеллекта. В частности, в ее задачи входило выявление возможных проблем, которые могли бы возникнуть в будущем из-за внедрения ИИ. По некоторым данным, деятельность группы инженеров, дизайнеров и философов, негативно сказывалась на скорости вывода ИИ-продуктов компании на «разогретый» ChatGPT рынок. Под давлением высшего руководства Microsoft команда сперва была зачищена, а спустя полгода и вовсе ликвидирована. Без морального ориентира Microsoft распустила команду специалистов по вопросам этики и общества (Ethics & Society), ранее входившую в состав подразделения искусственного интеллекта (ИИ) корпорации. Об этом сообщило издание The Verge со ссылкой на Platformer.

Та же незавидная участь постигла более чем 10 тыс. человек, уволенных в рамках массового сокращения компанией штата сотрудников, о котором CNews писал в середине января 2023 г.

Чем занималась команда

Ликвидированная команда осуществляла контроль за соблюдением принципов ответственного подхода к использованию ИИ, сформулированных Microsoft, при разработке собственных программных продуктов на базе нейросетей.

Несколько лет назад команда подготовила специальную настольную ролевую игру под названием Judgement Call («Спорное решение»), которая призвана помочь разработчикам сформировать представление о том, какой вред потенциально способен нанести искусственный интеллект и учесть возможные негативные последствия в процессе создания конкретного продукта на его основе. В последствии игра была включена в состав «инструментария ответственных инноваций» (Responsible Innovation Toolkit), опубликованного командой.

Расцвет команды пришелся на 2020 г. – тогда в ее состав входило примерно 30 человек. В их числе инженеры, дизайнеры и даже философы, отмечает The Verge. В октябре 2022 г. команда попала под реорганизацию, по итогам которой в ней осталось всего семь человек.

Разгон под давлением со стороны топ-менеджмента

Перед реорганизацией корпоративный вице-президент Microsoft по искусственному интеллекту (John Montgomery) в ходе встречи с подчиненными призвал поторопиться с выводом продуктов на базе OpenAI на рынок, следует из аудиозаписи разговора, имеющейся в распоряжении Platformer. Он также отметил, что давление на него со стороны топ-менеджеров, в частности, технического директора компании (Kevin Scott) и ее генерального директора (Satya Nadella), по этому вопросу очень велико. Именно этот фактор якобы вынудил Монтгомери перераспределить участников команды по этике ИИ в другие подразделения организации.

Некоторые из участников команды попытались дать вице-президенту словесный отпор и попросили его пересмотреть свое решение, почеркнув важность возложенных на нее функций. Монтгомери просьбу отверг, отметив, что члены команды не имеют столь же полного представления о ситуации в его зоне ответственности.

Тем не менее он заявил, что окончательно команда распущена не будет, объяснив сотрудникам, что этическая инициатива не уничтожается руководством, а проходит через процесс эволюции, в ходе которого более значительные усилия прикладываются к работе над конкретными сервисами и ПО. Роль централизованной структуры, которую из себя представляла команда до реорганизации, в такой ситуации неизбежно снижается.

Спустя пять месяцев, 6 марта 2023 г., Монтгомери собрал «выживших» в Zoom и сообщил им о ликвидации команды.

Враг внутри

Как отмечает The Verge, конфликт в Microsoft иллюстрирует противоречивое отношение технологических гигантов к созданным ими же самими подразделениям по вопросам этики и общества. С одной стороны, эксперты такого рода обладают навыками прогнозирования сценариев злонамеренного использования создаваемых компанией технологий, помогая разработчикам избавиться от «узких мест» в сервисах и ПО до их выхода на рынок. С другой, они способны и «тормозить» или вовсе блокировать вывод продуктов на рынок, обозначая риски, которые могут обернуться головной болью для юридического отдела компании в среднесрочной и долгосрочной перспективе.

На фоне обострившейся в сфере ИИ некоторые технологические гиганты, вероятно, могут воспринимать такие команды в качестве помехи, которая за счет компании же препятствует запуску прорывных продуктов, которые позволили бы ей отхватить кусок пирога, в лучшем случае опередив конкурентов, в крайнем – не отстав от них.

Со слов бывших сотрудников команды по этическим вопросам Microsoft, они пытались всячески поддерживать усилия корпорации в том, что касается разработки продуктов. Однако «гигант из Редмонда» настолько увлекся идеей первенства в вопросе вывода на рынок новейших ИИ-инструментов, что руководство компании в значительной степени утратило интерес к анализу долгосрочных последствий этой спешки.

Действительно, у Microsoft сейчас есть неплохой шанс усилить свои позиции в тех нишах, где традиционно сильная Google, например, в сфере поиска в интернете. В феврале 2023 г. компания запустила новую версию своего поисковика Bing со встроенной языковой моделью OpenAI, якобы более продвинутой, чем нашумевшая ChatGPT той же OpeanAI. В обращении к инвесторам компания заявила, что каждый процентный пункт доли на рынке поиска, который ей удастся отвоевать у Google, принесет дополнительные $2 млрд выручки в год.

Впрочем, у Google, имеющей серьезные опасения по поводу собственного будущего на поисково-рекламном рынке, тоже есть диалоговый ИИ под названием Bard (использует языковую модель LaMBDA). Пока он доступен только ограниченному кругу бета-тестеров.

Говорить о полном отказе Microsoft от принципов ответственного использовании ИИ не приходится

Следует иметь в виду, что ликвидированная команда все же была не единственной структурой, занятой вопросами этичного ИИ. В строю, согласно официальному сайту Microsoft, остаются ORA (Office of Responsible AI), RAISE (Responsible AI Strategy in Engineering и Aether Committee.

ПодпискаБудь в СЕТИ! Новости социальных сетей - всегда актуальное
 
Группы: ВК | OK | Tg