Я шукаю..

Виявлення різних типів упередженості ChatGPT Інновації

Виявлення різних типів упередженості ChatGPT

Заслужений аналітик і науковий співробітник Info-Tech Research. Статті та рекомендації щодо управління проектами, портфелями та змінами.

"без субтитрів"

Ну, це тривало недовго. Коли ChatGPT вперше привернув увагу ділового світу, це принесло водночас хвилювання від того, що ми корисні, і паніку від того, що позбавляли нас роботи.

Після тверезих роздумів і деякого часу з юридичним відділом ситуація заспокоюється. Корпорації здебільшого натискають «Паузу», дозволяючи або заохочуючи комерційне використання, поки вони з’ясують, чи це гарна ідея. Користувачі здебільшого натискають «Пауза», тому що не хочуть, щоб їх затримали за те, що вони вважають роботу штучного інтелекту своєю власною.

Але коли дим розвіявся, найбільша проблема з усіх стала очевидною: проблематичні форми упередженості роблять результати ChatGPT недостовірними. І хоча легко очистити образливий вміст, набагато важче очистити те, що просто неправильно.

П’ять категорій упередженості ChatGPT

Перші дві категорії упередженості походять від того, як програмне забезпечення отримує вхідні дані. Третій і четвертий, здається, природно викликаються через природу генеративного програмного забезпечення ШІ. П'ята форма генеративного упередження ШІ проявляється в самих користувачах.

1. Упередженість вибірки була добре задокументована, є очевидною за своєю суттю та має сенс. Зрештою, лише частина з нас написала вміст, який живить великі мовні моделі (LLM).

2. Друга форма упередженості вхідних даних впроваджується компанією, що займається програмним забезпеченням, і я називаю це «програмним моральним упередженням». Можливо, у відповідь на неявне упередження вибірки, OpenAI (творець ChatGPT) запровадив власні перевизначення, щоб програмне забезпечення діяло так, як очікує постмодерна корпорація. Це схоже на якусь автоматизовану упередженість ввічливості, впроваджуючи думки, які схиляються до «соціально коректних». Комусь це може сподобатися, а комусь ні, але більшість побачить, що ChatGPT чудово підходить для більшості їхніх колег 2023 року.

3. Існує форма «упередженого невігластва», яка розчарувала користувачів, які помилково прийняли величезні знання ChatGPT за силу дедуктивного міркування. Це дуже схоже на іспит із відкритою книгою в академічному середовищі: ChatGPT може швидко шукати наявні відповіді, але йому бракує пізнання, необхідного для вирішення нових запитань.

4. Найбільш інтригуючою формою упередження є те, що я називаю «упередження вікна Овертона». Проведіть багато часу з цим програмним забезпеченням, і стане очевидним, що база знань значно перевищує діапазон того, що вважається відповідним дискурсом. ChatGPT залишиться «всередині вікна» у своєму написанні, оскільки він спирається на твердження, які здаються безпечними та несуперечливими.

Але тут є проблема. Бази даних, що стоять за LLMs, наповнені суперечливими доказами, мінливими настроями та недостовірними висновками. Версія вікна Овертона від ChatGPT є розумним посібником, щоб не ображати домінуючі голоси на робочому місці 2023 року, але вона не має поняття, що є правдою, оскільки нам, очевидно, не вистачає єдиного довідкового джерела для «правди».

Людині важко орієнтуватися у вікні Овертона. Як ви вважаєте, чи має ChatGPT необхідну проникливість, щоб жонглювати діапазоном суперечливих тем, що швидко зростає та розвивається? Чи витримає його проведення у 2023 році в майбутньому? Інтернет – це назавжди, тож чи готові ви поставити свій бренд на його роботу?

Будь-хто, хто використовує його вихід, ризикує повторити позиції, які потрапляють у вікно Овертона, незважаючи на те, що деякі інші є хибними. Що ще гірше, сам ChatGPT часто може використовуватися для дискредитації того, що він вам щойно сказав.

5. Коли люди занадто багато довіряють штучному інтелекту, ми бачимо принаймні три рівні «упередженості». Найбільш очевидним є упередження автоматизації, коли ми надмірно покладаємося на валідність технології. Це нікого не повинно дивувати, якщо взяти до уваги надмірне робоче навантаження більшості спеціалістів із знаннями та величезні перспективи цієї блискучої нової іграшки.

Ми також бачимо, що багато користувачів перебувають під впливом певної форми авторитету, коли вони передають політичні чи інтелектуальні повноваження ШІ. Це нікого не повинно здивувати, якщо взяти до уваги виклики 2020–2022 років і те, як легко ми піддалися зовнішній владі.

Більш тривожна форма упередженого ставлення виявляється як примусовий стрес (див. Таблицю примусу Бідермана). Коли люди не тільки покладаються на ШІ як на авторитет, але й рішуче захищають його як на доброчесну сутність, нам доводиться дивуватися, наскільки сильно на них вплинула заплутана та стресова пандемія Covid-19 і роль Big Tech у нашій закритій системі життя. Можливо, це форма стокгольмського синдрому, де технологія виступає в ролі викрадача, а людство в ролі заручника. У будь-якому випадку викликає занепокоєння те, що деякі бізнес-користувачі надмірно розвинули свою прихильність до штучного інтелекту та поступилися своєю інтелектуальною діяльністю експериментальному програмному забезпеченню.

Висновок

Це не просто юридична чи етична проблема. ChatGPT дає можливість абсолютно помилятися, коли ми намагаємося звикнути до генеративного сімейства упереджень ШІ. Замість того, щоб спотворювати себе та свій бізнес, щоб знайти спосіб використовувати написання ChatGPT, подумайте, що його найкраща роль — це "муза". Використовуйте його, щоб випробувати своє мислення та викликати нові ідеї. Використовуйте його, щоб перевірити загальну обізнаність із фактами та відповідність.

Уявіть, що ви вибираєте між двома варіантами: ви можете написати власний вміст, а ті, хто не згодні, у гіршому випадку обговорюватимуть ваші дослідження та риторику. Або ви можете скористатися виходом ChatGPT, і ті, хто не згодні, більше ніколи не сприйматимуть вас серйозно.

Пам’ятайте, ChatGPT – це муза. Дурень. Придворний блазень. Ви носите інтелектуальну корону. Не відмовляйтеся від своєї проникливості на користь штучного інтелекту та зводьте себе до «нещасного дурня».