Я ищу..

ИИ может быть расистом: давайте убедимся, что это работает для всех. Лидерство

ИИ может быть расистом: давайте убедимся, что это работает для всех.

"ИТАЛИЯ-ТЕХНОЛОГИИ-ИИ"

В течение десятилетий искусственный интеллект (ИИ) был в основном просто фантастикой, такой как летающие автомобили или реактивные ранцы. Но почти в одночасье кажется, что будущее наступило.

Сегодня алгоритмы и системы, управляемые ИИ, становятся стандартными рабочими инструментами в науке, образовании, обслуживании клиентов, уголовном правосудии, финансах, управлении дорожным движением и практически в любой другой сфере нашей жизни, какую только можно себе представить. Между тем, сложные инструменты обработки языка на основе искусственного интеллекта, такие как ChatGPT от OpenAI (финансируемый Microsoft, моим бывшим работодателем), теперь могут писать сложные эссе из нескольких абзацев практически на любую тему за считанные секунды. На самом деле ChatGPT уже прошел планку и несколько экзаменов AP. По словам стэнфордского профессора Эрика Бриньолфссона, эти чат-боты вскоре станут «калькулятором для письма» и радикально изменят работу белых воротничков так же, как раньше это сделали революции в Интернете и мобильных телефонах. (Примечание: я не использовал ChatGPT для написания этого эссе, но очень скоро вы не сможете заметить разницу).

Трудно не быть одновременно взволнованным и встревоженным потрясением ИИ, происходящим вокруг нас. Пять лет назад — вечность с точки зрения ИИ — генеральный директор Google Сундар Пичаи назвал ИИ «одной из самых важных вещей, над которыми работает человечество… более глубокой, чем электричество или огонь». Когда мы размышляем о важных периодах американской истории, преобразованных технологиями , ИИ может быть таким же масштабным, как промышленная революция. В прошлом месяце генеральный директор OpenAI Сэм Альтман назвал ИИ потенциально «величайшей технологией, когда-либо разработанной человечеством».

Хотя все это может показаться преувеличением, достаточно всего нескольких минут игры с ChatGPT, чтобы почувствовать, что мы находимся на пороге значительных изменений. Тем не менее, есть огромный и тревожный дефект ИИ, который должен заставить всех задуматься. Какими бы замечательными ни были эти новые инструменты искусственного интеллекта, многие из них все еще тонко увековечивают — или, что еще хуже, усиливают — предубеждения своих создателей (в основном белых мужчин). Вместо того, чтобы преодолеть наши человеческие ограничения и создать более справедливое будущее для всех, инструменты ИИ часто непреднамеренно повторяют одни и те же ошибки и упущения в суждениях, позволяя сегодня расизму и дискриминации распространяться по всему нашему обществу.

Есть много отрезвляющих примеров вреда, который может причинить ИИ. В 2018 году студентка Массачусетского технологического института Джой Буоламвини написала о своем опыте, когда обнаружила, что алгоритмы распознавания лиц в ее лаборатории, используемые во всем мире, не могут обнаруживать лица чернокожих. Ей даже пришлось надеть белую маску, чтобы компьютер распознал ее как личность. (Вы можете посмотреть ее превосходное выступление на Ted Talk здесь.) Точно так же в 2020 году пользователи обнаружили, что инструмент обрезки изображений Twitter постоянно фокусируется на белых лицах. Некоторые ошибки серьезнее упущений. Роботы с искусственным интеллектом, обученные на миллиардах изображений, постоянно идентифицировали женщин как «домохозяек», а цветных — как «преступников» или «уборщиков».

В ходе панельной дискуссии по этим вопросам в 2019 году профессор Гарварда Латанья Суини рассказала, по словам ее сына, «день, когда ее компьютер был расистским». Когда она показывала коллеге какую-то работу, поисковые системы показывали рекламу. за инструменты для удаления ее несуществующих тюремных записей, основанных исключительно на ее имени, звучащем как афроамериканец. Она отметила, что эти механизмы регулярно выдают хищнические кредиты тем, чьи имена звучат как черные. «Многие из нас пришли в мир технологий с верой в то, что [они] построят лучшее завтра и исправят многие ошибки, которые создало общество, — сказала она, — так что вы можете себе представить, как я была потрясена, увидев эту рекламу». ."

Эти «алгоритмические предубеждения» более чем оскорбительны — они имеют серьезные последствия в реальном мире для цветных людей. Сегодня алгоритмы помогают определять кредитные баллы и подходящих кандидатов для открытия вакансий и поступления в колледжи. Они «предсказывают» преступление и помогают судам определить, кто заслуживает освобождения под залог и каковы должны быть сроки наказания. Они помогают врачам прогнозировать уровень заболеваемости раком и смертность, а также принимать решения о подходящем лечении. Они вплетены во все аспекты нашей жизни, и если они усвоили расизм по пути, они увековечат его.

Так как же решить эту проблему? Помните, что искусственный интеллект не создан для того, чтобы быть расистом — он просто усваивает его от нас. Возьмите это от самого ИИ. Когда я спросил ChatGPT, является ли он расистским, он сказал мне: «У меня нет личных убеждений или чувств, включая расизм. Я был запрограммирован давать ответы на основе полученной информации и знаний и языковых моделей, которым я научился . Мои ответы основаны исключительно на предоставленной информации». И это ключ. Слишком часто мы обучаем эти алгоритмы с неполными или несовершенными входными данными, что приводит к непреднамеренно расистским результатам. Как выразился Буоламини, «если тренировочные наборы не настолько разнообразны, любое лицо, отклоняющееся от установленной нормы, будет труднее обнаружить».

«Слепые пятна» модели отражают суждения и приоритеты ее создателей, — пишет Кэти О'Нил, автор книги «Оружие математического разрушения». Но может быть и обратное. Если мы сможем разнообразить как исследователей, создающих системы ИИ, так и наборы данных, которые эти алгоритмы используют для обучения; мы можем помочь научить их лучшим привычкам и обеспечить более справедливые результаты. «Тренировочные комплекты не появляются из ниоткуда», — говорит Буоламвини. "Есть возможность создавать комплексные тренировочные наборы, которые отражают более богатую часть человечества".

После своего опыта работы с расистскими ИИ Буоламвини основала Лигу алгоритмической справедливости, чтобы поощрять большее разнообразие среди программистов ИИ, одновременно расширяя диапазон и качество обучающих наборов, на которых обучаются системы. Луис Салазар, технический предприниматель из Сиэтла, сосредоточенный на целенаправленных инновациях, встречался с лидерами ИИ по этим вопросам и запустил AI для социального прогресса (AI4SP.org), чтобы поощрять использование более разнообразных обучающих наборов, которые могут уменьшить предвзятость в технологиях ИИ. .

Я настоятельно рекомендую бизнес-лидерам и филантропам поддерживать эти и подобные усилия в будущем и оценивать результаты, полученные системами искусственного интеллекта, которые они используют для устранения гендерных и расовых предубеждений. ИИ теперь переписывает то, как мы живем, работаем и играем; если мы все сделаем правильно, будущее выглядит замечательным. Но мы должны серьезно заняться устранением системных предубеждений и расизма с этих платформ, пока не стало слишком поздно. Давайте работать над тем, чтобы сделать ИИ рассветом новой захватывающей эры для всех, а не неудачным технологическим путем, позволяющим продолжать повторять наши прошлые ошибки.