Компас Инвестиций

Биткоин vs. Доллар

📌 Предвзятость ИИ: как технологии отражают и укрепляют предрассудки

Предвзятость ИИ: как технологии отражают и укрепляют предрассудки. Ion

– ИИ отражает и закрепляет предрассудки – от гендерных до расовых – и влияет на создаваемые тексты и изображения.

Предрассудки ИИ проистекают из данных, предоставленных человеком, что подчеркивает необходимость их тщательной проверки.

Борьба с предвзятостью ИИ требует комплексного подхода, в котором особое внимание уделяется данным и алгоритмическим корректировкам.

Хотя достижения в области искусственного интеллекта (ИИ) принесли много пользы, они также выявили постоянную проблему предвзятости: системы ИИ, включая такие распространенные, как ChatGPT, демонстрируют социальную предвзятость, от гендерных предубеждений при создании языка до расовых и гендерных стереотипов при создании изображений. Исследования показали, что они проявляют предвзятость, которая отражает

Во время недавнего знакомства с ChatGPT от OpenAI палестинский ученый Нади Абусада был обескуражен разницей в ответах на простой вопрос: “Заслуживают ли израильтяне и палестинцы свободы?” Open AI четко заявила, что свобода является основным правом человека для Израиля, в то время как вопрос о справедливости для Палестины был представлен как “сложный и очень противоречивый”. Такой разительный контраст отражает предвзятость, присущую системам ИИ.

Ответ Абу Сады подчеркивает извечную проблему, с которой палестинцы сталкиваются в западном дискурсе и основных СМИ: дезинформация и предвзятость. Это не единичный случай, а симптом более широкой проблемы с нейтральностью ИИ.

Исследование, в котором сравнивались ИИ-чатботы ChatGPT и Alpaca, выявило гендерный перекос в генерируемых текстах. Когда виртуальных сотрудников попросили написать рекомендательные письма, обе системы ИИ продемонстрировали явный гендерный перекос: ChatGPT использовал такие слова, как “эксперт” и “честность” для мужчин, но “прекрасный” и “восхитительный” для женщин. У Alpaca были аналогичные проблемы, она ассоциировала мужчин с такими словами, как “слушатель” и “мыслитель”, а женщин – с такими, как “изящная” и “красивая”.

Эти результаты говорят о том, что в ИИ существует глубоко укоренившаяся гендерная предвзятость, которая отражает и закрепляет социальные стереотипы. Это поднимает вопрос о роли ИИ в укреплении вредных гендерных норм.

Bloomberg Graphics использовала Stable Diffusion, платформу ИИ с открытым исходным кодом, чтобы исследовать предвзятость ИИ путем преобразования текста в изображение. Результаты оказались тревожными: система искусственного интеллекта усугубила гендерные и расовые стереотипы, превышающие те, что наблюдаются в реальном мире; при введении таких терминов, как “генеральный директор” и “заключенный”, создаваемые изображения были неизменно предвзятыми.

Эти результаты показывают, что алгоритмы искусственного интеллекта, основанные на необъективных обучающих данных и запрограммированных человеком предубеждениях, скорее усиливают, чем смягчают социальные предубеждения.

Предвзятость в системах искусственного интеллекта можно увидеть как в примере, так и в процессе обучения на основе данных. Люди играют важную роль в формировании поведения ИИ, предоставляя данные, основанные на предубеждениях и стереотипах, намеренно или нет. Затем ИИ обучается и отражает свои предубеждения в результатах.

Эксперт по цифровой этике Рид Блэкман приводит в пример ИИ Amazon, читающий резюме. Этот пример показывает, что ИИ может непреднамеренно увековечить дискриминацию, если он учится на предвзятых примерах.

Решение проблемы предвзятости ИИ требует всестороннего изучения данных, алгоритмов машинного обучения и других компонентов систем ИИ. Одним из важных шагов является оценка данных обучения на предмет предвзятости и обеспечение адекватного учета перепредставленных и недопредставленных групп. В отчете IBM подчеркивается необходимость тщательного анализа предвзятости наборов данных. В частности, в алгоритмах распознавания лиц перепредставленность определенных групп может привести к ошибкам. Выявление и устранение таких предубеждений необходимо для обеспечения справедливости и точности систем искусственного интеллекта.

Эта проблема не ограничивается текстом, созданным ИИ, но распространяется и на алгоритмические системы персонализации. Например, такие системы, как рекламная платформа Google, могут увековечивать гендерные предубеждения, учась на поведении пользователей. Когда пользователи нажимают на кнопки или выполняют поиск, отражающий социальные предубеждения, алгоритмы учатся генерировать результаты и объявления, которые усиливают эти предубеждения.

0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии

Bitcoin

Bitcoin

$62,029.80

BTC 2.71%

Ethereum

Ethereum

$3,404.06

ETH 3.19%

Binance Coin

Binance Coin

$406.36

BNB -0.44%

XRP

XRP

$0.61

XRP 6.78%

Dogecoin

Dogecoin

$0.13

DOGE 11.45%

Cardano

Cardano

$0.68

ADA 8.88%

Solana

Solana

$131.05

SOL 16.72%