Я шукаю..

Люди в петлі GenAI Інновації

Люди в петлі GenAI

"НІДЕРЛАНДІ-МИСТЕЦТВО-МУЗЕЙ-ТЕХНОЛОГІЯ-AI"

Відвідувач фотографує за допомогою свого мобільного телефону зображення, створене за допомогою штучного інтелекту берлінським цифровим творцем Джуліаном ван Дікеном (C), натхненним картиною Йоганнеса Вермеєра «Дівчина з перловою сережкою» в музеї Мауріцхейса в Гаага, 9 березня 2023 р. – Робота Джуліана ван Дікена, створена за допомогою штучного інтелекту (ШІ), є частиною спеціальної інсталяції фанатів відтворення картини Йоганнеса Вермеєра «Дівчина з перловою сережкою». на виставці в музеї Мауріцхейса.

Generative AI, технологія ChatGPT, стає надновою, як кажуть астрономи, на даний момент затьмарюючи інші інновації. Але, незважаючи на тривожні прогнози про те, що володарі штучного інтелекту поневолять людство, ця технологія все ще потребує людей, які працюють із нею ще деякий час.

Хоча штучний інтелект може генерувати вміст і код із неймовірною швидкістю, він все одно вимагає від людей контролю за результатом, який може бути низької якості або просто неправильним. Незалежно від того, чи йдеться про написання звіту чи написання комп’ютерної програми, технологія не може забезпечувати точність, на яку можуть покластися люди. Він стає кращим, але навіть цей процес удосконалення залежить від армії людей, які старанно виправляють помилки моделі штучного інтелекту, намагаючись навчити її «вести себе».

Люди в циклі — це стара концепція штучного інтелекту. Це стосується практики залучення експертів-людей до процесу навчання та вдосконалення систем ШІ, щоб переконатися, що вони працюють правильно та відповідають бажаним цілям.

На початку досліджень штучного інтелекту комп’ютерники зосереджувалися на розробці систем на основі правил, які могли б міркувати та приймати рішення на основі заздалегідь запрограмованих правил. Однак ці системи було нудним для створення – вимагали експертів для запису правил – і були обмежені тим фактом, що вони могли працювати лише в межах обмежень правил, які були явно запрограмовані в них.

З розвитком технологій штучного інтелекту дослідники почали досліджувати нові підходи, такі як машинне навчання та нейронні мережі, які дозволяли комп’ютерам навчатися самостійно на основі великих обсягів навчальних даних.

Але маленький брудний секрет першої хвилі таких програм, які все ще є домінуючою формою ШІ, що використовується сьогодні, полягає в тому, що вони залежать від даних, позначених вручну. Десятки тисяч людей продовжують працювати над головоломним завданням наносити мітки на зображення, текст і звук, щоб навчити контрольовані системи штучного інтелекту, що шукати або слухати.

Потім з’явився генеративний штучний інтелект, якому не потрібні позначені дані. Він навчається, споживаючи величезну кількість даних і вивчаючи зв’язки в цих даних, подібно до того, як це роблять тварини в дикій природі. Великі мовні моделі, які використовують генеративний ШІ, вивчають світ крізь призму тексту, і світ був вражений здатністю цих моделей складати людські відповіді та навіть брати участь у людських розмовах.

ChatGPT, велика мовна модель, навчена OpenAI, вразила світ глибиною своїх знань і плавністю відповідей. Тим не менш, його корисність обмежена так званими галюцинаціями, помилками у створеному тексті, які семантично або синтаксично правдоподібні, але насправді є неправильними або безглуздими.

Відповідь? Знову люди. OpenAI працює над вирішенням галюцинацій ChatGPT за допомогою навчання з підкріпленням із зворотним зв’язком людини (RLHF), залучаючи, так, велику кількість працівників.

RLHF використовувався для формування поведінки ChatGPT, де дані, зібрані під час його взаємодії, використовуються для навчання нейронної мережі, яка функціонує як «прогноз винагороди». Прогноз винагороди оцінює результати ChatGPT і прогнозує числову оцінка, яка показує, наскільки добре ці дії узгоджуються з бажаною поведінкою системи. Людина-оцінювач періодично перевіряє відповіді ChatGPT і вибирає ті, які найкраще відображають бажану поведінку. Цей зворотний зв’язок використовується для налаштування нейронної мережі прогнозування винагороди, яка потім використовується для зміни поведінки моделі ШІ.

Ілля Суцкевер, головний науковий співробітник OpenAI і один із творців ChatGPT, вважає, що проблема галюцинацій зникне з часом, оскільки великі мовні моделі навчаться закріплювати свої відповіді в реальності. Він припускає, що обмеження ChatGPT, які ми бачимо сьогодні, зменшаться в міру вдосконалення моделі. Однак люди в циклі, ймовірно, залишаться особливістю дивовижної технології на довгі роки.

Ось чому генеративні помічники кодування штучного інтелекту, такі як CoPilot від GitHub і CodeWhisperer від Amazon, є саме такими, помічниками, які працюють разом з досвідченими програмістами, які можуть виправити їхні помилки або вибрати найкращий варіант серед кількох пропозицій кодування. Хоча штучний інтелект може генерувати код у швидкому темпі, люди привносять творчі здібності, контекст і навички критичного мислення.

Справжня автономія штучного інтелекту залежить від довіри та надійності систем штучного інтелекту, які можуть виникнути в міру вдосконалення цих систем. Але наразі люди є головними, і надійні результати залежать від співпраці між людьми та ШІ.