Я ищу..

Илон Маск и другие технологические лидеры призывают замедлить развитие ИИ Лидерство

Илон Маск и другие технологические лидеры призывают замедлить развитие ИИ

"Илон

Илон Маск призывает замедлить быстрое развитие технологий искусственного интеллекта, таких как ChatGPT

В открытом письме, подписанном Илоном Маском, соучредителем Apple Стивом Возняком, израильским футуристом Ювалем Ноа Харари и другими, намечается 6-месячная пауза для быстро расширяющегося мира инструментов ИИ. Беспрецедентный рост, в котором доминируют ChatGPT и другие развивающиеся платформы, вызывает обеспокоенность по поводу стандартов безопасности и социальных последствий. В письме объясняется, что ИИ развивается таким образом, что никто, даже создатели технологии, не могут его предсказать или контролировать. «Мощные системы искусственного интеллекта, — говорится в письме, — следует разрабатывать только после того, как мы будем уверены, что их эффекты будут положительными, а их риски будут управляемыми». Эти лидеры зловеще признают потенциальные изменения чего-то не меньшего, чем история жизни на Земле. «Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут создавать серьезные риски для общества и человечества, — начинается письмо, — как показали обширные исследования и признали ведущие лаборатории искусственного интеллекта».

Тем временем такие компании, как Microsoft, используют технологию искусственного интеллекта для своей поисковой системы Bing и других предложений. В недавнем отчете Microsoft сообщает, что GPT-4, последняя доступная версия инструмента OpenAI, может решать «новые и сложные задачи» с «производительностью на уровне человека» в продвинутых профессиях, таких как программирование, медицина, юриспруденция и даже психология. Google выпустила Bard, чат-бот на основе искусственного интеллекта и конкурирующий сервис. Технологические гиганты Adobe, Salesforce и Zoom находятся в авангарде внедрения передовых инструментов искусственного интеллекта. Подвергают ли эти и другие компании риску себя (и, соответственно, своих клиентов)? И если да, то какие опасности связаны с ChatGPT и его аналогами?

Макс Тегмарк, профессор физики Массачусетского технологического института (MIT), был одним из организаторов письма. Он рассказал Wall Street Journal, что достижения в области искусственного интеллекта превзошли то, что многие эксперты считали возможным, даже совсем недавно, всего несколько лет назад. «К сожалению, представить это как гонку вооружений, — сказал Тегмарк журналу, — это больше похоже на гонку самоубийств». Это смелое заявление, но Тегмарк объясняет: «Это просто означает, что человечество в целом может потерять контроль над своей судьбой». Разве это не было строкой в журнале для последнего фильма о Терминаторе?

На самом деле, этот контроль уже начинает ослабевать, согласно обширному обзору вакансий, проведенному Пенсильванским университетом и изучающему влияние больших языковых моделей (LLM), таких как ChatGPT, на различные карьеры. Согласно этому текущему исследованию, обновленному только вчера, большинство рабочих мест будут каким-то образом изменены с помощью GPT, при этом «80% работников имеют профессии, в которых хотя бы одна рабочая задача может быть быстро выполнена с помощью генеративного ИИ». По данным Wall Street Journal, наибольшему риску подвергаются бухгалтеры, поскольку исследования показывают, что по крайней мере половина всех бухгалтерских задач может быть выполнена намного быстрее с помощью этой технологии.

Мэтт Бин изучает влияние новых технологий в Калифорнийском университете в Санта-Барбаре. Доцент в школе, Бин говорит, что люди отвергают изменения, которые ставят под угрозу их интересы. Звучит логично, но обратите внимание, что его аргумент подразумевает элемент выбора. По мере того, как OpenAI и другие компании мчатся к дивному новому миру, где машины создают, контролируют и изменяют диалог, реальные последствия выходят за рамки нашего нынешнего воображения. Действительно, Forbes уловил опасения по поводу кибербезопасности, плагиата и дезинформационных кампаний с использованием чат-ботов. Эти потенциально зловещие приложения могут быть запущены и использованы таким образом, что это может навредить многим, способами, которые даже невозможно полностью объяснить прямо сейчас.

Действительно, проблема с ИИ и ChatGPT не нова. А именно, как сделать новую технологию безопасной и поддерживать ее таким образом, чтобы свести к минимуму зловещие или вредные действия? Минус машинного обучения в том, что машина больше не просто инструмент. Технология становится пользователем. Что произойдет, когда технология продвинется дальше подсказок? Чат-бот уже делает выбор, чтобы отвечать на подсказки. Сколько времени пройдет, прежде чем эти новые инструменты тоже начнут принимать решения?

В письме Маска и других содержатся суровые предупреждения относительно технологии без границ. Созданное с намерением расширить человеческий опыт, это расширение (согласно лидерам в письме) выходит за рамки нашего текущего контроля. Технология искусственного интеллекта, такая как ChatGPT, приводит к неожиданным и потенциально опасным последствиям. По мере того, как механизм диалога становится все более интеллектуальным и обширным, возможность создавать и контролировать разговор переходит в руки того, у кого нет рук. Руководство и ограничения — вот к чему призывают эти технологические лидеры в своем письме: «Исследования и разработки в области ИИ должны быть переориентированы на то, чтобы сделать современные мощные современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными. согласованный, заслуживающий доверия и верный».

Имеет смысл, верно? Точный и безопасный, мы все этого хотим. Но как кодировать лояльность и надежность? Может быть, кто-то должен задать ChatGPT этот вопрос.