Я ищу..

10 угроз, которые использование ИИ представляет для компаний и организаций Лидерство

10 угроз, которые использование ИИ представляет для компаний и организаций

"ИИ

Новости на этой неделе о том, что Microsoft включит возможности искусственного интеллекта на панель задач Bing в своей операционной системе Windows 11, показывают, насколько быстро новая технология становится доступной как для бизнеса, так и для частных лиц.

«С обновлением инструмент ИИ будет доступен из окна поиска Windows, что позволит пользователям напрямую получать доступ к файлам и настройкам и выполнять веб-запросы», — сообщает CNN.

Но то, как, когда и почему бизнес-лидеры используют технологии ИИ, может создать широкий спектр кризисов для их компаний и организаций.

Илон Маск, например, сомневается, если не опасается, в отношении ИИ. Говоря вчера с инвесторами о планах Tesla, он сказал: «Искусственный интеллект вызывает у меня стресс» и что федеральное правительство должно регулировать эту технологию.

«Нам нужен какой-то регулирующий орган или что-то еще, контролирующее развитие ИИ», — сказал Маск. "Убедитесь, что это работает в общественных интересах. Это довольно опасная технология. Боюсь, я мог что-то сделать для ее ускорения".

«По мере развития ИИ компании будут сталкиваться с рядом юридических и деловых рисков, во-первых, из-за того, что злоумышленники используют эти технологии для нанесения вреда бизнесу, и, во-вторых, когда сами компании захотят внедрить чат-ботов или другие формы ИИ в свои функции», — Мэтью Ф. , Ферраро, поверенный по кибербезопасности в юридической фирме Wilmer Hale, сказал по электронной почте.

«Это быстро развивающаяся технология, но исходя из того, что нам известно на данный момент, существует десять юридических и деловых рисков, о которых должны знать организации всех видов», — предупредил он.

Ферраро сказал, что использование ИИ несет серьезные убытки и риски в следующих областях, о которых бизнес-лидеры должны помнить в ближайшие дни.

«Информация, введенная в ИИ, включая подсказки, которые задают вопросы чат-ботам, должна считаться общедоступной, а не частной. Это связано с тем, что чат-боты могут использовать полученные данные для разработки и улучшения своих услуг.

«Компаниям следует с осторожностью вводить в подсказки чат-бота информацию от клиентов, заказчиков или партнеров, на которую распространяются договорные ограничения конфиденциальности или другие элементы управления».

«Чат-боты могут создавать вредоносное ПО и выдавать себя за человеческие разговоры, которые можно использовать для фишинга и мошенничества в социальных сетях».

«Инструменты искусственного интеллекта могут собирать личные данные, которые могут быть переданы третьим лицам, что может привести к нарушению законов о конфиденциальности данных».

«Использование ИИ, в том числе чат-ботов, для введения потребителей в заблуждение может нарушать законы, запрещающие недобросовестную и вводящую в заблуждение торговую практику».

«Результаты ИИ могут быть предвзятыми по отношению к определенным группам из-за предвзятого характера данных, на которых обучаются инструменты ИИ. Регулирующие органы США, в том числе Белый дом и Федеральная торговая комиссия, подчеркивают необходимость ответственного и недискриминационного использования ИИ».

«Чат-боты могут создавать ложную информацию в масштабе правдоподобного разговорного английского, даже если пользователь не так свободно говорит».

«Компании должны убедиться, что их использование ИИ соответствует этическим обязательствам, особенно тем, которые налагаются профессиональными организациями. Например, использование ИИ для представления клиентов может представлять собой несанкционированную юридическую практику».

«Госконтракты требуют откровенности со стороны подрядчиков. Подрядчики должны быть прозрачными в отношении использования ИИ, чтобы не вводить правительство в заблуждение».

«Использование генеративного ИИ создает множество различных рисков для интеллектуальной собственности. Материал, загруженный в ИИ, может быть защищен правообладателями. И вообще неясно, кому принадлежит IP, сгенерированный ИИ. Судебные разбирательства в этой области продолжаются».

«Чат-боты могут создавать ложные, но авторитетно звучащие заявления. Компании, использующие чат-ботов, должны проверять ответы, прежде чем полагаться на них при принятии бизнес-решений».

Прежде чем полностью внедрить ИИ и подвергнуть свои организации воздействию этих и других триггеров кризиса, руководители должны подумать о том, чтобы продвигаться вперед с этим новым технологическим инструментом осторожно и осторожно.

Принятие мер предосторожности

"ИИ

«Компании могут подготовиться к ИИ, приняв меры предосторожности», — говорится в заявлении Шарлотты Адамс, директора по персоналу сайта Overnight Jobs, посвященного поиску работы и карьерному консультированию.

«Во-первых, им необходимо определить области своего бизнеса, в которых ИИ может быть наиболее эффективным и выгодным, и разработать четкую стратегию интеграции ИИ в эти области», — посоветовала она.

«Им также необходимо убедиться, что их инфраструктура данных способна поддерживать инициативы в области искусственного интеллекта, инвестируя в такие технологии, как облачные вычисления, анализ данных и инструменты машинного обучения. Они должны начать с малого, внедрив ИИ в несколько областей бизнеса и постепенно расширяя его использование с течением времени», — посоветовал Адамс.

«Они должны убедиться, что их сотрудники обучены работе с технологиями ИИ и понимают, как ИИ можно использовать для дополнения их работы. Наконец, им необходимо знать об этических последствиях ИИ и разрабатывать политики и рекомендации, обеспечивающие ответственное использование ИИ в их бизнес-операциях.

«Предприняв эти шаги, предприятия могут подготовиться к интеграции ИИ и воспользоваться преимуществами повышения эффективности, производительности и инноваций», — заключила она.

Ферраро сказал, что есть шаги, которые компании могут предпринять, чтобы свести к минимуму опасности и угрозы, связанные с использованием ИИ.

«Остерегайтесь беспорядочного использования ИИ сотрудниками бизнеса. Внедрите политики для защиты конфиденциальности информации, защищенной договором», — порекомендовал он. «Соблюдайте правила и параметры конфиденциальности данных, которые позволяют пользователям удалять свою информацию или защищать ее от передачи третьим лицам, [и] быть прозрачными с клиентами, сотрудниками и партнерами в отношении использования ИИ или чат-ботов».

Ферраро сказал, что руководители корпораций должны «заблаговременно планировать опасность дезинформации, передавать сообщения компании, отслеживать корпоративные бренды в Интернете и быть готовыми реагировать в случае инцидента».