Я ищу..

ChatGPT вызывает отпор ИИ Инновации

ChatGPT вызывает отпор ИИ

Разговор об ИИ набирает обороты за последние пять или около того лет, но оглянемся ли мы на март 2023 года, когда интерес к этой области действительно прорвался в массовое сознание из его предыдущих специализированных областей технологий, научных кругов, юридических политика и научно-фантастический интерес? Макс Тегмарк мог бы что-то сказать по этому поводу, но, на мой взгляд, выпуск GPT-4 14 марта поднял разговор об ИИ на совершенно новый уровень.

"ФРАНЦИЯ-ТЕХНОЛОГИИ-ИТ-ИИ"

Осведомленность общественности и интерес к ИИ резко возросли с момента запуска чат-бота OpenAI, ChatGPT, в ноябре 2022 года, но выпуск GPT-4, мультимодальной крупноязыковой модели, лежащей в основе бота, вызвал беспрецедентную реакцию, которая, в свою очередь, охватила весь мир. внимание прессы и средств массовой информации.

В частности, я имею в виду две реакции.

"Хайди

Маск и FOLI призывают к мораторию на ИИ

Во-первых, 22 марта Институт будущего жизни («FOLI») опубликовал открытое письмо, призывающее все лаборатории ИИ «немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GT-4». Фоном для этого требования, по словам подписавших сторон, является то, что «в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять. прогнозировать или надежно контролировать». Это отрезвляет, учитывая, что подписавшие отмечают, что «системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества». И оправдывая свой призыв к мораторию, подписи сами повторяют слова OpenAI:

«В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых продвинутых усилий согласиться ограничить скорость роста вычисления, используемые для создания новых моделей». Мы согласны. Этот момент настал сейчас».

В эпоху «культуры отмены» было бы удивительно, если бы не было негативной реакции на ИИ, видя, сколько внимания уделяется ChatGPT, но ценность письма FOLI проистекает не только из его содержания, но и из личности подписанты. Конечно, Илон Маск и Стив Возняк должны были привлечь наибольший интерес благодаря своей известности и новаторской роли в мире технологий, но беглый взгляд на список показывает, что многие ведущие мыслители в области ИИ разделяют точки зрения. . Многие серьезные мыслители в области ИИ высказывают очень серьезные взгляды.

Но для баланса стоит отметить, что письмо не было повсеместно принято в сообществе лидеров ИИ, и, как отмечали другие, FOLI финансируется Фондом Маска. Также г-н Маск был соучредителем OpenAI, но покинул эту организацию в 2018 году из-за «конфликта интересов».

Регулятор защиты данных Италии запрещает ChatGPT использовать итальянские данные

Во-вторых, 31 марта GPDP, итальянский регулятор защиты данных, ввел временный запрет на обработку ChatGPT данных итальянских пользователей. В настоящее время GPDP, похоже, выполняет миссию против ИИ, поскольку это второй запрет на ИИ, который он наложил в этом году, после того, как в феврале был введен запрет на другого чат-бота.

Отчет на английском языке на веб-сайте GPDP не является исчерпывающим, и перевод может не соответствовать применяемой аргументации, но основные проблемы заключаются в следующем:

20 марта сообщалось об утечке данных, которая затронула разговоры пользователей ChatGPT и информацию об абонентских платежах. Предположительно, это ссылка на утечку персональных данных по смыслу статьи 4.12 Общего регламента ЕС по защите данных. Никакая информация не предоставляется пользователям и субъектам данных, чьи данные собирает OpenAI. Предположительно, это ссылка на правила прозрачности GDPR в статьях 12, 13 и 14. Похоже, что нет никаких правовых оснований для «массового сбора и обработки персональных данных для «обучения» алгоритмов, на которые опирается платформа». Это должна быть ссылка на правила законности обработки данных в статьях с 6 по 9. «Информация, предоставляемая ChatGPT, не всегда соответствует фактическим обстоятельствам, поэтому обрабатываются неточные личные данные». Это должно быть ссылкой на принцип точности в статье 5.1.d. Не существует механизма проверки возраста для использования платформы детьми. Это должна быть ссылка на статью 8.2, но GPDP также выражает озабоченность по поводу уместности ответов чат-бота, полученных детьми.

Судя по английскому переводу, строго говоря, кажется, что GPDP не запрещает ChatGPT. Вместо этого запрет касается использования OpenAI личных данных итальянских пользователей. Это, вероятно, означает, что GPDP предполагает, что OpenAI не должен использовать персональные данные лиц, которые защищены итальянской реализацией GDPR для целей машинного обучения, а также не должен обрабатывать персональные данные любых пользователей чат-бота, которые защищены аналогичным образом, что в любой ситуации будет означать больше, чем граждане Италии. Однако в более поздней ситуации, то есть при использовании самого чат-бота, личные данные пользователей чат-бота, вероятно, будут очень ограничены по объему, то есть ограничены данными подписчика (если только пользователь не проводил тщеславный поиск о себе).

Но во всех смыслах и целях приказ GPDP представляет собой фактический запрет на использование ChatGPT в Италии, если он действительно распространяется на запрет обработки персональных данных пользователей, поскольку нет никакого способа использование системы без входа в систему, что требует предоставления адреса электронной почты (если только пользователь не выбирает параметры входа в систему OAuth, предоставляемые Google и Microsoft), которые во многих случаях могут быть личными данными. Более того, для OpenAI может оказаться невозможным отделить обучающие данные, подпадающие под действие итальянского закона о защите данных, из своей модели (или он может не захотеть сделать это по стратегическим причинам, чтобы защитить свою юридическую позицию).

Таким образом, пока ситуация не разрешится, ChatGPT фактически запрещен в Италии. Это может быть не запрет де-юре, но запрет де-факто может привести к тем же результатам: технология остановится на своем пути.

Какой должна быть нормативно-правовая база?

Эти два события проливают свет на эпицентр проблем, с которыми необходимо справиться сообществу заинтересованных сторон ИИ. По сути, они обеспокоены характером нормативно-правовой базы, которая должна применяться, и степенью независимого надзора, которую разработчики ИИ должны принять как часть лицензии на работу.

Очевидно, что если риски так высоки, как предполагает FOLI, для технологической отрасли было бы совершенно неприемлемо саморегулировать свой подход к ИИ или позволять власти концентрироваться в руках небольшой группы компаний.

ЕС предложил подход к регулированию ИИ

ЕС уже решает эти вопросы и предлагает Регламент ИИ, который будет ранжировать системы ИИ в соответствии с их уровнями риска, при этом все будет контролироваться новым общеевропейским советом по искусственному интеллекту и системой национальных регуляторов. Если бы эта структура рисков применялась к ChatGPT в качестве чат-бота, ее можно было бы рассматривать как систему с ограниченным риском.

"БРИТАНИЯ-ПОЛИТИКА-ЕС-БРЕКСИТ"

Британский подход к регулированию ИИ

Великобритания придерживается другого подхода. Вместо того, чтобы создавать новую систему регулирования, существующая система регуляторов должна будет рассматривать вопросы ИИ в рамках своих повседневных регулирующих функций, руководствуясь пятью новыми принципами регулирования, которые в конечном итоге будут закреплены в законодательстве. Первостепенной задачей нынешнего правительства Великобритании является содействие инновациям и росту, чтобы обеспечить стране глобальную лидирующую роль в качестве центра искусственного интеллекта. ЕС тоже хочет этого, поэтому реальная проблема будет заключаться в том, как сбалансировать рост с конкурирующими интересами, такими как защита данных и другие права и интересы.

Проблема, поставленная письмом FOLI, заключается в том, что, несмотря на все разговоры о росте, инновациях и балансировании прав, мы, возможно, не решаем наиболее экзистенциальную проблему из всех, а именно то, что ИИ может представлять угрозу для самого человечества. В этом смысле, как сообщил нам г-н Тегмарк, мы можем оказаться на пороге разработки новой формы жизни, Жизни 3.0. Если это правда, то, возможно, масштабность проблем не была полностью осознана в ходе дебатов, формирующих нормативно-правовую базу. Как и в случае с научными разработками, которые привели к созданию ядерного оружия, игнорируем ли мы риск того, что мы можем пойти по пути технологического прогресса, который в конечном итоге может угрожать нашему существованию и который мы не в состоянии свернуть?

"А

Мораторий маловероятен?

Но даже если мы осознаем чудовищность выбора, с которым мы сталкиваемся, что мы будем делать с этим в мире, где человечеству, кажется, суждено угрожать своим собственным интересам, даже когда прозвучат все мыслимые сигналы тревоги? Является ли наше продвижение к антиутопическому будущему ИИ неизбежным, точно так же, как кажется невозможным продвижение к климатической катастрофе? Возможно, аргумент, который, скорее всего, предотвратит мораторий на ИИ на Западе, будет состоять в том, что Китай, Россия, Индия и т. д. будут продолжать действовать, несмотря ни на что. Более того, нам не нужно оглядываться на конкурентов Запада, чтобы определить барьеры на пути моратория на ИИ: совсем не удивительно, что руководители Microsoft и Google не поставили свои подписи под письмом FOLI.

Тем не менее, ни один из этих аргументов сам по себе не делает позицию GPDP в отношении ChatGPT неопровержимой. Глядя на список выделенных проблем, по крайней мере одна из них кажется подозрительной после небольшого анализа: то есть использование персональных данных для целей машинного обучения может иметь правовую основу в соответствии с критерием законных интересов статьи 6 Общего регламента по защите данных или в рамках критерия явной общедоступной информации Статьи 9, поскольку речь идет об особых категориях персональных данных. Действительно, наличие законного интереса к массовой обработке персональных данных технологическими компаниями было имплицитно признано Судом ЕС в деле о праве на забвение с участием Google.

Также возможно, что GPDP расширил правила родительского согласия за пределы их гибкости, расширив установленную законом цель на качество и содержание информации, которую ребенок может получить через чат-бота, в отличие от того, как чат-бот обрабатывает личную информацию этого ребенка. данные. Правила прозрачности и правила точности также имеют ограничения, если формулировка GDPR ЕС принимается за чистую монету. Наконец, возникает вопрос о применении дискреционных полномочий: если чат-бот будет рассматриваться как объект с низким уровнем риска в соответствии с предлагаемым Регламентом ЕС об искусственном интеллекте, действительно ли его запрет в соответствии с GDPR является справедливым применением дискреционных полномочий?

Должна ли конфиденциальность быть единственным голосом в комнате?

Вопросы, поднятые GPDP, по-видимому, приведут к передаче дела в Суд, и мы узнаем ответы в нужный момент, но GPDP — намеренно или непреднамеренно — пролила столь необходимый свет на этот вопрос. примата заинтересованных сторон (как и FOLI). Если система представляет собой низкий уровень риска, если смотреть через призму специального законодательства об ИИ, и если ИИ может быть силой во благо, то почему регулятор защиты данных должен иметь приоритет в вопросе доступности и использования чат-бота и быть в состоянии ввести запрет по собственному желанию?

Конечно, защита данных — очень важный вопрос, но это не единственная проблема, которой занимается ИИ. Возможно, учитывая состояние нормативно-правовой базы, нет другого голоса в комнате с эффективной регулирующей властью, но если защита данных является единственной областью, которая в настоящее время имеет реальную регулирующую роль в игре, это может показаться большим позором.