ИА «Ореанда-Новости».         Корпорация Google запустила новую процедуру проверки. Теперь, прежде чем начинать рассмотрение таких тем, как анализ лиц и эмоций, категоризация людей по расовому, половому и политическому признаку, учёным сперва следует получить консультацию у юридических, политических и общественных отделов. Также в этом списке значатся: нефтяная промышленности, Ирак и Иран, коронавирус, данные о местоположении, религия, веб-контент и т.д.

Согласно сообщениям сотрудников Google, пункт о деликатных темах необходим для предотвращения раскрытия коммерческой тайны. В некоторые проекты компания вмешалась ещё до их публикации для того, чтобы авторы проявили большую осторожность, что создаст позитивный фон.

Одним из таких проектов был тот, в котором затрагивалась тема «рекомендательного ИИ». Создатели данного проекта опасались, что эта технология приведёт к политической поляризации и отсутствую разнообразия контента.

Несмотря на заявления корпорации о свободе своих учёных в исследованиях, некоторые из них утверждают, что компания вмешивается в исследовательские проекты и запрещает публикацию тех из, которые не соответствуют качественному рецензированию.

Так, Google уволила Тимниту Губру за то, что она оспорила приказ не публиковать исследование, в котором утверждалось, что имитирующий речь искусственный интеллект может поставить в невыгодное положение маргинализированные группы населения.

Стремительный рост исследований и разработок в области искусственного интеллекта побудил правительство США начать разработку правил его применения. Аргументы включают в себя выдержки из научных исследований, которые показывают, что программное обеспечение для анализа лиц и тому подобное может усилить предубеждения или ослабить конфиденциальность.