Type to search

Инновации

Превосходство предубеждений в ИИ

Share

"Нейротехнологии".

2022 год можно запомнить как год, когда на сцену взорвался генеративный ИИ, вызвавший большие волны в цифровом сообществе. С появлением любой новой технологии, меняющей правила игры, в данном случае чрезвычайно мощных алгоритмов, лежащих в основе систем генерации изображений и текста, таких как ChatGPT и DALL-E, обязательно последуют критика и негативная реакция. Но я не верю, что проблемы и противоречия, связанные с этими алгоритмами, должны тормозить их развитие.

Недавнее освещение аутсорсинговой модерации контента OpenAI является прекрасным примером того, насколько неоднозначным может быть путь вперед. С одной стороны, человеческий контроль неизбежен; с другой стороны, модераторы-люди, подвергающиеся воздействию экстремального контента, должны получать всю необходимую поддержку для проведения этой жестокой, но чрезвычайно важной части процесса модерации. Улучшение наших стандартов при разработке оптимальных версий для этих алгоритмов является лучшей практикой во всех сценариях с участием ИИ.

По совпадению (или нет), 2022 год также был годом, когда я много писал о том, как различные когнитивные искажения и другие процессы влияют на наше обоснование, особенно во всех (как классических, так и основанных на глубоких нейронных сетях) решениях ИИ. Между прочим (или нет), предубеждения, возникающие из-за этих генеративных алгоритмов, являются главной проблемой, которую необходимо решить, если мы хотим направить генеративный ИИ в более продуктивное русло.

Забегая вперед, что мы можем извлечь из этих предубеждений? Я хочу воспользоваться этой возможностью, пока 2023 год еще свеж, чтобы просмотреть написанные мной статьи, посвященные этим когнитивным искажениям и тому, как мы можем справиться с ними, особенно при работе с генеративным ИИ.

Краткое определение предвзятости подтверждения — это когнитивный путь, встроенный в наше подсознание в соответствии с нашими убеждениями, который затем перенаправляет внимание на аргументы и доказательства, которые подкрепляют эту систему убеждений. Это одно из самых распространенных предубеждений в социальных сетях. Это нелегко полностью преодолеть: требуется постоянная практика и сознательные усилия, чтобы понять, как они искажают наше обоснование.

Предвзятость выжившего отражает нашу тенденцию выбирать только примеры успеха, «выживших», и игнорировать все негативные примеры определенного случая и то, что они добавили бы к набору данных. Я уверен, вы видели и слышали об успешных предпринимателях, актерах, спортсменах и обо всех историях, стоящих за ними, но для каждой истории успеха неизвестно множество неудачных попыток. Этот пример предвзятости также довольно широко распространен, и не только в социальных сетях, но и в любых других СМИ с самого начала коммуникативной эры.

Аксиома, которая лучше всего определяет ложную причинность, заключается в том, что «корреляция не подразумевает причинно-следственную связь», но даже при этом знании все еще часто устанавливается тесная связь между двумя переменными, не обязательно связанными друг с другом.

Предвзятость доступности возникает из-за умственного ярлыка, который мы используем для быстрых суждений, известного как «эвристика доступности». Мы склонны использовать информацию, наиболее доступную для наших рассуждений, из-за чего легче упустить из виду общую картину; чаще всего у вас нет полной картины, чтобы принять решение. Это связано с тем, что ситуации, которые мы наблюдаем или отчетливо помним, сильно влияют на наше подсознание.

Все перечисленные выше предубеждения возникают в определенных когнитивных условиях, и их признание дает нам огромное преимущество. Но как специалисты по ИИ могут эффективно исключить их из процесса принятия решений при работе над проектом ИИ?

По сути, ответ на когнитивные предубеждения находится вне области собственных когнитивных процессов, а это означает, что вы не можете на 100% доверять тому, как вы понимаете проблему и как только вы один сможете ее решить. На практике это означает, что перед тем, как принять решение, необходимо установить некоторую дистанцию между вами и проблемой. Очевидно, что командная работа имеет здесь решающее значение. Наличие второго, третьего или даже четвертого мнения поможет избавиться от предубеждений у каждого человека и поможет прийти к общей объективной точке зрения. Чем разнообразнее команда, тем лучше, поскольку невозможно переоценить важность разнообразного человеческого контроля.

Однако в случае генеративного ИИ возникают более сложные проблемы из-за грандиозных целей технологии. Чтобы быть максимально надежным, алгоритму требуется огромное количество обучающих данных, и именно здесь изобилуют когнитивные искажения. Каждая отдельная запись может быть глубоко предвзятой. Чтобы выполнить смягчение для каждого из них, потребовалось бы бесконечное количество работы. Эти чрезвычайно мощные инструменты требуют чрезвычайно мощных подходов в случае предвзятости, обработки данных перед обучением или какой-либо формы фильтрации данных.

Дело в том, что предтренировочное смягчение — это простой способ избавиться от предвзятости на его корнях. Конфигурация модели ИИ основана на том, как проводится обучение и какие данные используются; в конце концов, это все человеческий выбор. Представление этических дилемм до начала разработки на основе обучения является одним из самых безопасных способов продвижения вперед, но это резко снижает скорость, с которой компания может создать такой инструмент. Использование бесплатных, неограниченных обучающих данных было тем, что в первую очередь обеспечило надежность этих алгоритмов.

Как насчет смягчения последствий с помощью фильтрации данных? Существует возможность использования технологических достижений непосредственно для решения проблем предвзятости и обучения алгоритма с помощью отфильтрованных наборов данных. Один из недавних примеров связан со справедливостью представительства, одной из ключевых проблем, требующих решения. Исследователи из Google работают над инструментом под названием «Сглаживание скрытого пространства для индивидуально справедливых представлений» или LASSI. Несмотря на то, что это примечательно и благородно, сделать такое решение для фильтрации данных эффективным на уровне земли, однако, обещает быть трудной задачей.

Независимо от того, какие решения мы придумаем, важно не упускать из виду этические причины. Если искусственный материал для обучения и модерации человеком кажется жизненно важной частью проекта, следует сосредоточить внимание на процессах, которые считаются подверженными человеческому неправильному пониманию. Разрабатываемые инструменты обладают удивительными нечеловеческими способностями, но именно человеческий компонент будет поддерживать их соответствие нашим потребностям и помнить о наших несовершенствах.