Я шукаю..

Чому люди переджено ставляться до ШІ? Лідерство

Чому люди переджено ставляться до ШІ?

Наша негативна реакція на chatGPT більше говорить про наші власні обмеження, ніж про обмеження ШІ

"TECHNOLOGY-IT-AI"

Робота над штучним інтелектом триває. Знову ж таки, можна сподіватися, що й людство…

Ми можемо бути найбільш адаптованою істотою, яка коли-небудь населяла цю планету (принаймні, на нашу думку), але наш інтелект зараз може бути під загрозою. Парадоксальна причина полягає в тому, що ми винайшли щось розумніше за нас, хоча більшість людей швидко відкидають цю ідею.

Дійсно, ставлення людей до ШІ переважно негативне. Залишаючи осторонь техно-ентузіастів і тих, хто активно займається продажем штучного інтелекту, типова людина або зневажливо ставиться до більшості відомих на сьогодні застосувань штучного інтелекту, або боїться їх.

Наприклад, ми шоковані, коли автономні транспортні засоби потрапляють в аварії, але рідко замислюємося про те, що щорічно стається близько 1,3 мільйона смертельних аварій завдяки водіям-людям. Так само ми не довіряємо алгоритмам найму чи штучному інтелекту для набору персоналу, нажахані історіями про шахрайських чат-ботів, які створювали сексистські рішення чи расистські коментарі, але, здається, цілком звикли до останньої частки упереджених інтерв’юерів, упереджених рекрутерів і світу, у якому талановиті люди неправильні. не звертають уваги на відповідні посади, тоді як безталанних нарцисів продовжують вибирати (або обирати) на керівні посади.

Перелік важливих рішень, які виграли б від зменшення людської помилки, довгий: рішення присяжних, медичні діагнози, оцінка кредитоспроможності, страхові премії та навіть стосунки, можливо, зменшуючи 746 971 розлучення в Америці щороку.

Останнє звільнення ШІ здебільшого було зосереджено на chatGPT, який широко критикували за неточність, упередженість і, ну, скоріше людяність: «бот може стати агресивним, поблажливим, загрозливим, відданим політичним цілям, чіпким, моторошним, і брехун», як нещодавно зазначалося в New York Times.

Схоже, що людська схильність відчувати огиду, коли машини демонструють негативні людські риси, не поєднується з готовністю засуджувати або придушувати ці самі риси в людях. Але, як я показую у своїй останній книзі, саме тут ШІ може бути надзвичайно корисним: як інструмент, який підвищує нашу самосвідомість, якби тільки ми могли мати необхідну самокритичність, щоб визнати, що його небажані риси є лише відображенням наших власних людських якостей.

Світ людських справ регулюється несправедливими правилами, примхливими упередженнями та невидимими упередженнями, які можна викрити, коли ШІ навчиться наслідувати наше мислення та прийняття рішень. Чим більше він вчиться від нас, тим більше він повторює нашу темну сторону. Однак це також можливість: ми можемо не бажати визнавати власні упередження та вади, але їх легше помітити, коли ми передаємо їх ШІ, особливо тому, що він може вдосконалити та посилити їх.

Отже, коли пошукова система Google видає сексистські варіанти автозавершення фрази «жінки повинні…» (наприклад, залишатися вдома, бути рабами, залишатися на кухні тощо), це не ШІ Google є сексистським, ані розробники програмного забезпечення, які написали код, але й мільйони людей у світі, які із задоволенням висловлюють такі сексистські думки. Важливо, що те, що огидні коментарі автозавершення піддаються цензурі за статтю, расою, релігією чи політичною ідеологією, не робить людей більш етичними, відкритими чи альтруїстичними.

Те саме для chatGPT: дипломатичні чи політично коректні відповіді на запитання про гендерну нерівність не роблять його об’єктивним, моральним чи пробудженим. Вони просто висвітлюють запобіжні заходи, які були запроваджені для фільтрації суперечливих чи суперечливих поглядів, що навряд чи сприяє дискусії. Проте замість того, щоб скаржитися на chatGPT за те, що він не представляє наші погляди чи думки, давайте дослідимо його результати, щоб зрозуміти, що зафіксовано, а що випущено з реальної громадської думки – і чому.

Правда, ШІ не обов’язково повинен бути ідеальним, щоб покращити наше життя; він лише має бути кращим за статус-кво, який, погодьтеся, є досить низькою планкою. Однак, зрештою, саме тому існує стільки опору ШІ: статус-кво – це людська інтуїція, яка в більшості випадків є чудовим евфемізмом для упередженості. І люди не тільки захищають, але й пишаються своїми упередженнями.

Коротше кажучи, вказувати пальцем на штучний інтелект і висміювати його за його упередження — це чудова стратегія для увічнення нашого власного. Саме тому штучний інтелект був настільки ефективним у захопленні та посиленні наших упереджень. Говорячи нам те, що ми хочемо почути, і показуючи нам те, що ми хочемо бачити, він створює надійні фільтруючі бульбашки, де ми навіть не підозрюємо про вплив штучного інтелекту, відриваючи нас від реальності, яка завжди була трохи набутим смаком для людей .

У цьому сенсі саме тоді, коли штучний інтелект говорить нам щось, чого ми не хочемо чути, ми повинні бути уважними до можливості того, що, можливо, лише можливо, нам надається можливість стати трохи менш упередженою версією себе. Така подія була б надзвичайно незручною, оскільки ми не звикли до думки, що штучний інтелект може посилити нашу невпевненість у собі чи невпевненість, що важливо для підвищення нашої компетентності та досвіду. Якщо ми продовжуватимемо розгортати штучний інтелект лише як інструмент для самовдосконалення, який підвищує нашу впевненість за рахунок нашої компетентності, наше сприйняття штучного інтелекту може зрости саме тому, що він може посилити наші власні упередження.