Специалисты провели исследование, где переводчик самостоятельно выбирал род при переводе местоимений. После этого исследовали обвинили переводчик в предвзятости.
Ученые из Бразилии провели исследование по работе алгоритмов переводчика Google. В ходе исследования было выявлено, что в большинстве случаев переводчик довольно предвзято переводит названия профессий.
Исследователи взяли 12 языков, где отсутствует принадлежность рода в третьем лице. Среди языков оказались финский, венгерский, эстонский и армянский. Была выведена формула, в котором использовалось местоимение и ряд профессий. В общем счете получилось более тысячи комбинаций, которые были переведены на английский.
Так, Google предпочитал технические и научные специальности относить к «мужским» профессиям.
Затем исследователи проанализировали данные рынка труда в США. После этого было подтверждено, что переводчик на самом деле не отражает действительности и проявляет предвзятость.
Отмечается, что программы, основанные на работе нейросетей, нередко проявляли сексизм, расизм и другие виды нетерпимости. Но специалисты утверждают, что в процессе обучения сетей, ситуация улучшается.
Также, напоминаем, что сегодня, 11 сентября произошел крупный сбой среди систем «Яндекса» и Google. Большое количество пользователей пожаловались на невозможность проверить электронную почту и посетить популярный видео хостинг.