Я ищу..

Сможет ли искусственный интеллект когда-либо достичь цифрового доверия на уровне общества? Инновации

Сможет ли искусственный интеллект когда-либо достичь цифрового доверия на уровне общества?

"без подписи"

31 марта 2023 года итальянский орган по защите данных объявил о немедленном запрете на использование ChatGPT, а также о расследовании использования личных данных этим инструментом, полученным из «Интернета, каким он был в 2021 году». Каковы вероятные последствия этого решения, и является ли оно «первым маленьким решением для человека, но гигантским и решительным скачком для спасения человечества»?

К искусственному интеллекту (ИИ) всегда относились с подозрением, а темпы и объем высказанных опасений достигают новых высот. Сами по себе опасения по поводу использования ИИ и уровня, до которого он может заменить предыдущие процессы, управляемые человеком, являются демонстрацией темпов технического прогресса.

Однако было ли это технологическое продвижение предпринято с подходом «с широко открытыми глазами», или же технологи сломя голову врезались в кирпичную стену, не в состоянии распознать новые уровни осведомленности о цифровых рисках, которые сейчас существуют в обществе, и риски, связанные с беспрепятственное развитие мощного обучения ИИ?

Проблемы социального и технологического лидерства

Во всем мире подавляющее большинство организаций признают, что ИИ неизбежно займет свое место в будущей ткани нашего общества. Мировые лидеры регулярно обсуждают эту технологию и ее использование на таких форумах, как G7, G20 и Всемирный экономический форум, где она обсуждается и признается технологией на благо общества в будущем.

Это правда, но какой ценой и риском? Что является большим риском — использование мощных и разумных систем искусственного интеллекта или неполучение потенциальной социальной выгоды от их использования?

По мере того, как мы движемся к цифровому Обществу 5.0, вполне вероятно, что те организации, которые игнорируют потенциал ИИ, будут бороться за выживание. Вместо этого их обгонят организации, которые внедряют новые технологии и, благодаря эффективному управлению рисками, позволяют думать о будущем и прогрессивные бизнес-стратегии, которые изначально являются цифровыми.

Однако настроение музыки об ИИ начинает фундаментально меняться. Помимо действий итальянского органа по защите данных, еще одним ярким примером этого призыва к большей ясности в стандартах разработки ИИ является подписание соучредителем OpenAI Илоном Маском открытого письма с призывом прекратить обучение мощных систем ИИ на фоне опасений угрозы. человечеству до тех пор, пока не будут установлены стандарты разработки таких систем ИИ.

Тот факт, что открытое письмо подписано не только Маском, но и сооснователем Apple Стивом Возняком, является явным выражением озабоченности со стороны некоторых из самых видных технологических лидеров во всем мире. Тот факт, что открытое письмо собрало почти 20 000 подписей ведущих ученых и технологов в течение первых нескольких недель после публикации, свидетельствует о росте общественного беспокойства.

Мотивы запрета итальянского органа по защите данных, который в настоящее время находится в контакте с рядом своих европейских коллег, в том числе с ирландскими и британскими коллегами, выходят за рамки конкурентной борьбы, учитывая спонсорство и инвестиции OpenAI ChatGPT со стороны Microsoft. .

Предвидение рисков ИИ

На нынешних уровнях работы системы ИИ не достигли уровней предвидения, указанных в фильме Стивена Спилберга «Особое мнение» 2002 года, основанном на одноименной научно-фантастической новелле Филипа К. Дика 1956 года. Тем не менее, самые большие риски сегодня связаны с людьми и последствиями нечеткого правового регулирования, а также рисками, которые предвзятость программирования может представлять для людей из-за автоматизированного принятия решений и конфиденциальности потребителей.

Однако ясно, что в фильме Спилберга и в повести Дика есть предупреждающие знаки, на которые следует обратить внимание.

Создание пути и ответа на цифровое доверие к ИИ

Как и все аспекты технологии, цель, для которой она предназначена, и способ ее развертывания будут иметь решающее значение для ее успеха. Международные стандарты часто играют центральную роль в определении пути к успеху. В мире ИИ я не вижу никакой разницы, и разработка ISO 42001 должна создать систему управления для правительств и организаций для устранения рисков, связанных с развертыванием ИИ.

В отсутствие существующих четко сформулированных правил, применимых ко всем секторам и географическим регионам, такие стандарты, как ISO 42001, играют центральную роль в прогрессивном взгляде на цифровое доверие, необходимое для закрепления уверенности в будущих технологиях, и могут помочь обеспечить доверие, учитывая управление и этика использования ИИ.

Чтобы достичь этого полного потенциального будущего состояния, социальные экосистемы должны продемонстрировать свою готовность к будущему и доверие ко всем уровням технологии ИИ. Преобладающие уровни/характеристики технологий, которые необходимо учитывать для создания доказуемого доверия к ИИ, — это безопасность, защищенность и устойчивость. Существующие международные стандарты, такие как ISO 27001, ISO 27005 и ISO 27701, представляют собой начальные рекомендации по управлению технологическими рисками.

Однако вполне вероятно, что появится совместный ответ, аналогичный массовому появлению общедоступного облака. Форумы и отраслевые организации, такие как Cloud Security Alliance, IoT Security Foundation и OT Cyber Security Alliance, внесли ясность в соответствующие области управления технологическими рисками. Международное сотрудничество между такими организациями, как Институт Алана Тьюринга в Великобритании и совместная декларация Великобритании и США о сотрудничестве в исследованиях и разработках ИИ, должно помочь стимулировать международные усилия.

Пока общество не осознает риски и не создаст адекватные механизмы контроля для решения очевидных проблем с ИИ, маловероятно, что решение итальянского органа по защите данных станет последним.