Я ищу..

люди Почему предвзято относятся к ИИ? Лидерство

люди Почему предвзято относятся к ИИ?

Наша негативная реакция на chatGPT больше говорит о наших собственных ограничениях, чем об ограничениях ИИ.

"ТЕХНОЛОГИЯ-ИТ-ИИ"

Искусственный интеллект находится в стадии разработки. Опять же, хотелось бы надеяться, человечество тоже…

Мы можем быть самым приспосабливаемым существом, когда-либо населявшим эту планету (по крайней мере, по нашему мнению), но наш интеллект теперь может оказаться под угрозой. Парадоксальная причина в том, что мы изобрели нечто более умное, чем мы сами, хотя большинство людей быстро отвергает эту идею.

Действительно, отношение людей к ИИ во многом негативное. Не считая техно-энтузиастов и тех, кто активно занимается продажей ИИ, типичный человек либо пренебрежительно относится к большинству известных на сегодняшний день применений ИИ, либо боится их.

Например, мы шокированы, когда автономные транспортные средства разбиваются, но редко задумываемся о том, что каждый год происходит около 1,3 миллиона автомобильных аварий со смертельным исходом по вине людей-водителей. Точно так же мы не доверяем алгоритмам найма или ИИ для найма, ужасаясь историям о мошеннических чат-ботах, которые выдавали сексистские решения или расистские комментарии, но, похоже, совершенно привыкли к последней части предвзятых интервьюеров, предвзятых рекрутеров и миру, в котором талантливые люди ошибочно упускают из виду для соответствующих должностей, в то время как бездарных нарциссов продолжают выбирать (или избирать) на руководящие роли.

Список важных решений, которые выиграют от сокращения человеческих ошибок, длинный: решения присяжных, медицинский диагноз, кредитный скоринг, страховые взносы и даже отношения, что, возможно, сократит 746 971 развод в Америке каждый год.

Самое последнее игнорирование ИИ в значительной степени было сосредоточено на chatGPT, который подвергался многочисленным нападкам за неточность, предвзятость и, ну, скорее, человечность: «бот может стать агрессивным, снисходительным, угрожающим, приверженным политическим целям, навязчивым, жутким, и лжец», как отмечалось в недавней статье New York Times.

Похоже, что человеческая склонность испытывать отвращение к машинам, демонстрирующим отрицательные человеческие черты, не сочетается с готовностью осуждать или подавлять эти самые черты в людях. Но, как я иллюстрирую в своей последней книге, именно здесь ИИ мог бы быть чрезвычайно полезен: как инструмент, повышающий наше самосознание, если бы только у нас была необходимая самокритика, чтобы признать, что его нежелательные черты являются просто отражением наших собственных человеческих качеств.

Мир человеческих дел управляется несправедливыми правилами, капризными предубеждениями и невидимыми предрассудками, и все они могут быть разоблачены, когда ИИ научится подражать нашему мышлению и принятию решений. Чем больше он узнает от нас, тем больше он копирует нашу темную сторону. Однако это также и возможность: мы можем не желать признавать свои собственные предубеждения и недостатки, но их легче обнаружить, когда мы переносим их на ИИ, особенно потому, что он может их совершенствовать и усиливать.

Таким образом, когда поисковая система Google выдает сексистские варианты автозаполнения фразы «женщины должны…» (например, оставаться дома, быть рабынями, оставаться на кухне и т. д.), это не ИИ Google является сексистским, и не разработчики программного обеспечения, написавшие код, но и миллионы людей в мире, которые счастливы высказывать такие женоненавистнические мысли. Важно отметить, что тот факт, что подлые комментарии автозаполнения подвергаются цензуре в отношении пола, расы, религии или политической идеологии, не делает людей более этичными, открытыми или альтруистичными.

То же самое и с chatGPT: дипломатические или политкорректные ответы на вопросы о гендерном неравенстве не делают его объективным, моральным или проснувшимся. Они просто подчеркивают меры предосторожности, которые были введены для фильтрации противоречивых или вызывающих разногласия мнений, что вряд ли способствует обсуждению. Тем не менее, вместо того, чтобы жаловаться на ChatGPT за то, что он не отражает наши взгляды или мнения, давайте изучим его вывод, чтобы понять, что захватывается и опускается из реального общественного мнения — и почему.

Безусловно, ИИ не обязательно должен быть совершенным, чтобы улучшить нашу жизнь; это должно быть только лучше, чем статус-кво, который, скажем прямо, является довольно низкой планкой. Однако, в конечном счете, именно поэтому существует такое сильное сопротивление ИИ: статус-кво — это человеческая интуиция, которая в большинстве случаев является прекрасным эвфемизмом предвзятости. И люди не только защищают, но и гордятся своими предубеждениями.

Короче говоря, указывать пальцем на ИИ и высмеивать его за его предубеждения — отличная стратегия для увековечивания наших собственных. Именно поэтому ИИ так эффективно перехватывает и усиливает наши предубеждения. Говоря нам то, что мы хотим услышать, и показывая нам то, что мы хотим видеть, он создает надежные фильтрующие пузыри, в которых мы даже не осознаем влияние ИИ, отделяя нас от реальности, которая всегда была чем-то вроде приобретенного вкуса для людей. .

В этом смысле именно тогда, когда ИИ говорит нам то, что мы не хотим слышать, мы должны быть готовы к тому, что, возможно, только возможно, нам предоставляется возможность стать немного менее предвзятой версией самих себя. Такое событие было бы крайне неудобным, потому что мы не привыкли к мысли, что ИИ может усилить нашу неуверенность в себе или неуверенность в себе, что необходимо для повышения нашей компетентности и опыта. Если мы продолжим использовать ИИ только как саморазвивающийся инструмент, который повышает нашу уверенность в себе за счет нашей компетентности, наше признание ИИ может возрасти именно потому, что он может усилить наши собственные предубеждения.