Мы забыли дать нейронным сетям возможность забывать
Share
Разговор о нынешней неспособности искусственного интеллекта забывать и о том, что это означает для права на неприкосновенность частной жизни и свободы действий пользователей. Мигель Луенго-Орос, эксперт по искусственному интеллекту и социальный предприниматель, беседует с Ханаэ Барушель из Ashoka. (Полная биография ниже.)
Ханаэ Барушель: ChatGPT и другие приложения для генеративного искусственного интеллекта (ИИ) в последнее время попадают в заголовки газет из-за их беспрецедентной способности вести связные разговоры с людьми. Недавно у вас было собственное взаимодействие.

Основатель и генеральный директор SpotLab
Мигель Луенго
Мигель Луенго-Орос: Да, я спросил GPT-3 «Могут ли нейронные сети забыть?» и его ответ заключался в том, что «системы искусственного интеллекта, такие как нейронные сети, не обладают способностью забывать так же, как люди. Сеть может корректировать свои веса, чтобы лучше соответствовать новым данным, что может привести к тому, что она будет делать разные прогнозы для одних и тех же входных данных. Однако это не то же самое, что забыть в том смысле, что сеть по-прежнему имеет доступ ко всей информации, которую она узнала ранее, это просто более высокий приоритет новой информации».
Барушель: Эта неспособность забыть не привлекает особого внимания, и это беспокоит тебя. Почему?
Луенго-Орос: Одним из основных принципов правил конфиденциальности в Интернете, таких как Общий регламент по защите данных в Европе (GDPR), является идея о том, что данные, которые я создаю, принадлежат мне, и компания может использовать их только с моего разрешения. Это означает, что я всегда могу отозвать свое согласие и запросить свои данные обратно. Я даже могу попросить права быть забытым. Алгоритмы ИИ частично обучаются на пользовательских данных, и тем не менее почти ни одно из руководств, рамок и нормативных предложений, исходящих от правительств и компаний частного сектора, явно не фокусируется на создании моделей ИИ, которые можно не обучать. У нас нет способа отменить изменения, вызванные в их системе одной точкой данных по запросу владельца данных.
Барушель: Значит, у пользователей должна быть возможность сказать: «Прекратите использовать модель ИИ, которая была обучена на моих данных»?
Луенго-Орос: Точно. Давайте дадим ИИ возможность забывать. Думайте об этом как о кнопке Ctrl-Z ИИ. Допустим, моя фотография использовалась для обучения модели ИИ, которая распознает людей с голубыми глазами, и я больше не даю согласия или никогда не соглашался. Я должен иметь возможность попросить модель ИИ вести себя так, как будто мое изображение никогда не было включено в набор обучающих данных. Таким образом, мои данные не будут способствовать точной настройке внутренних параметров модели. В конце концов, это может не так сильно повлиять на ИИ, потому что моя картинка вряд ли внесла существенный вклад сама по себе. Но мы также можем представить случай, когда все люди с голубыми глазами просят, чтобы их данные не влияли на алгоритм, делая невозможным распознавание людей с голубыми глазами. Давайте представим в другом примере, что я Винсент Ван Гог, и я не хочу, чтобы мое искусство было включено в обучающий набор данных алгоритма. Если кто-то затем попросит машину нарисовать собаку в стиле Винсента Ван Гога, она не сможет выполнить эту задачу.
Барушель: Как это будет работать?
Луенго-Орос: В искусственных нейронных сетях каждый раз, когда точка данных используется для обучения модели ИИ, поведение каждого искусственного нейрона немного меняется. Один из способов устранить этот вклад — полностью переобучить модель ИИ без рассматриваемой точки данных. Но это непрактичное решение, потому что оно требует слишком большой вычислительной мощности и слишком ресурсоемко. Вместо этого нам нужно найти техническое решение, которое изменит влияние этой точки данных, изменив окончательную модель ИИ без необходимости ее обучения заново.
Барушель: Вы видите, что люди в сообществе ИИ преследуют такие идеи?
Луенго-Орос: До сих пор сообщество ИИ провело мало конкретных исследований по идее необучения нейронных сетей, но я уверен, что скоро будут умные решения. Есть смежные идеи, из которых можно черпать вдохновение, такие как концепция «катастрофического забывания», склонность моделей ИИ забывать ранее изученную информацию при изучении новой информации. Общая картина того, что я здесь предлагаю, заключается в том, что мы строим нейронные сети, которые не просто губки, увековечивающие все данные, которые они всасывают, как стохастические попугаи. Нам нужно создавать динамические объекты, которые адаптируются и извлекают уроки из наборов данных, которые им разрешено использовать.
Барушель: Помимо права на забвение, вы предполагаете, что такая прослеживаемость может также привести к большим инновациям, когда речь идет о правах цифровой собственности.
Луенго-Орос: Если бы мы смогли проследить, какие пользовательские данные способствовали обучению конкретных моделей ИИ, это могло бы стать механизмом компенсации людям за их вклад. Как я писал еще в 2019 году, мы могли бы придумать какую-то модель Spotify, которая вознаграждает людей роялти каждый раз, когда кто-то использует ИИ, обученный их данным. В будущем этот тип решения может облегчить напряженные отношения между творческой индустрией и генеративными инструментами искусственного интеллекта, такими как DALL-E или GPT-3. Это также может заложить основу для таких концепций, как «Забывчивая реклама», новой этической модели цифровой рекламы, которая намеренно избегает хранения личных поведенческих данных. Возможно, будущее ИИ заключается не только в том, чтобы научиться всему — чем больше набор данных и чем больше модель ИИ, тем лучше, — но и в создании систем ИИ, которые могут учиться и забывать в соответствии с желаниями и потребностями человечества.
Доктор Мигель Луенго-Орос — ученый и предприниматель, увлеченный созданием и созданием технологий и инноваций для социального воздействия. Будучи бывшим первым главным специалистом по данным в Организации Объединенных Наций, Мигель был пионером в использовании искусственного интеллекта для устойчивого развития и гуманитарной деятельности. Мигель является основателем и генеральным директором социального предприятия Spotlab, цифровой платформы здравоохранения, использующей лучшие технологии искусственного интеллекта и мобильных технологий для клинических исследований и всеобщего доступа к диагностике. За последнее десятилетие Мигель создал команды по всему миру, внедряя ИИ в операции и политику в таких областях, как бедность, продовольственная безопасность, беженцы и мигранты, предотвращение конфликтов, права человека, экономическое развитие, гендерные вопросы, разжигание ненависти, неприкосновенность частной жизни и изменение климата. Он является изобретателем Malariaspot.org — видеоигр для совместного анализа изображений малярии — и связан с Политехническим университетом Мадрида. Он стал стипендиатом Ашоки в 2013 году.
Подпишитесь на Next Now/Tech & Humanity, чтобы узнать больше о том, что работает и что будет дальше.