Escriba para buscar

¿Puede la inteligencia artificial lograr alguna vez la confianza digital a nivel social? Innovación

¿Puede la inteligencia artificial lograr alguna vez la confianza digital a nivel social?

"sin título"

El 31 de marzo de 2023, la autoridad italiana de protección de datos anunció una prohibición inmediata del uso de ChatGPT, así como una investigación sobre el uso de datos personales por parte de la herramienta, que se deriva de "Internet tal como era en 2021". ¿Cuáles son las consecuencias probables de esta decisión, y es "una primera pequeña decisión para el hombre, pero un paso gigante y decisivo para la salvación de la humanidad"?

La inteligencia artificial (IA) siempre ha sido tratada con recelo, y el ritmo y el volumen de las preocupaciones planteadas están alcanzando nuevos máximos. En sí mismas, las preocupaciones planteadas con respecto al uso de la IA y el nivel en el que puede reemplazar los procesos anteriores operados por humanos son una demostración del ritmo del avance tecnológico.

Sin embargo, ¿se ha emprendido este avance tecnológico con un enfoque de "ojos bien abiertos", o los tecnólogos se han topado de cabeza con una pared de ladrillos, al no reconocer los nuevos niveles de conciencia de riesgo digital que ahora existen dentro de la sociedad y los riesgos que plantea la avance sin restricciones del poderoso aprendizaje de la IA?

Preocupaciones de liderazgo social y tecnológico

A nivel mundial, la gran mayoría de las organizaciones reconocen que la IA tiene un lugar inevitable en el tejido futuro de nuestra sociedad. Los líderes mundiales discuten regularmente la tecnología y su uso en foros como el G7, el G20 y el Foro Económico Mundial, donde se discute y reconoce como una tecnología para el beneficio futuro de la sociedad.

Esto es cierto, pero ¿a qué costo y riesgo? ¿Cuál es el mayor riesgo: usar sistemas de IA potentes y sensibles o no lograr el beneficio social potencial disponible a partir de su uso?

A medida que avanzamos hacia una Sociedad 5.0 nativa digitalmente, es probable que aquellas organizaciones que ignoren el potencial de la IA tengan dificultades para sobrevivir. En su lugar, serán superadas por organizaciones que adoptan tecnologías emergentes y, a través de una gestión de riesgos efectiva, permiten el pensamiento futuro y estrategias comerciales progresivas que son digitales por diseño.

Sin embargo, la música ambiental sobre la IA está comenzando a cambiar fundamentalmente. Además de las acciones de la autoridad italiana de protección de datos, otro ejemplo claro de este llamado a una mayor claridad en los estándares de desarrollo de IA es el cofundador de OpenAI, Elon Musk, que firma una carta abierta que pide detener el entrenamiento de poderosos sistemas de IA en medio de temores de una amenaza. a la humanidad hasta que se establezcan estándares de desarrollo para tales sistemas de IA.

El hecho de que la carta abierta no solo esté firmada por Musk sino también por el cofundador de Apple, Steve Wozniak, es una clara declaración de preocupación de algunos de los líderes tecnológicos más destacados a nivel mundial. El hecho de que la carta abierta lograra casi 20.000 firmas de destacados académicos y tecnólogos en las primeras semanas de publicación es un testimonio de la creciente preocupación social.

Los motivos de la prohibición de la autoridad italiana de protección de datos, que ahora está en contacto con varias de sus contrapartes europeas, incluidas las contrapartes irlandesas y británicas, se extienden más allá de la batalla competitiva dado el patrocinio y la inversión de ChatGPT de OpenAI por parte de Microsoft. .

Precognición de riesgos de IA

En los niveles actuales de operación, los sistemas de IA no se han extendido a los niveles de precognición identificados en la película Minority Report de Steven Spielberg de 2002, que se basó en la novela de ciencia ficción de Philip K. Dick de 1956 del mismo nombre. Sin embargo, los mayores riesgos en la actualidad se centran en los humanos y los impactos de una regulación legal poco clara, así como los riesgos que el sesgo de programación puede representar para los humanos a través de la toma de decisiones automatizada y la privacidad del consumidor.

Está claro, sin embargo, que hay señales de advertencia señaladas en la película de Spielberg y la novela de Dick que deben ser atendidas.

Creación de un camino y una respuesta a la confianza digital en IA

Como todos los aspectos de la tecnología, el propósito para el que está destinada y la forma en que se implementa serán fundamentales para su éxito. Los estándares internacionales a menudo son fundamentales para garantizar que se identifique un camino hacia el éxito. En el mundo de la IA, no veo ninguna diferencia, y el desarrollo de ISO 42001 debería establecer un sistema de gestión para que los gobiernos y las organizaciones aborden los riesgos de las implementaciones de IA.

En ausencia de regulaciones bien enmarcadas existentes que sean aplicables a todos los sectores y geografías, los estándares como ISO 42001 son fundamentales para la visión progresiva de la confianza digital necesaria para consagrar la confianza en las tecnologías futuras y pueden ayudar a entregar la confianza al considerar la gobernanza y ética del uso de la IA.

Para lograr este estado futuro de pleno potencial, los ecosistemas sociales deben demostrar su preparación para el futuro y confiar en todas las capas de la tecnología de IA. Las capas/características predominantes de la tecnología que deben abordarse para crear una confianza demostrable en la IA son la seguridad, la protección y la resiliencia. Los estándares internacionales existentes, como ISO 27001, ISO 27005 e ISO 27701, presentan una guía inicial sobre la gestión de riesgos tecnológicos.

Sin embargo, es probable que surja una respuesta colaborativa similar al advenimiento masivo de la nube pública. Los foros y organismos de la industria como Cloud Security Alliance, IoT Security Foundation y OT Cyber Security Alliance han aportado claridad a sus respectivas áreas de gestión de riesgos tecnológicos. La cooperación internacional entre organismos como el Instituto Alan Turing en el Reino Unido y la declaración conjunta del Reino Unido y los EE. UU. sobre cooperación en investigación y desarrollo de IA debería ayudar a impulsar los esfuerzos internacionales.

Hasta que la sociedad reconozca los riesgos y establezca mecanismos de control adecuados para abordar las preocupaciones evidentes de la IA, es poco probable que la decisión de la autoridad italiana de protección de datos sea la última.