Escriba para buscar

Los disparadores de ChatGPT hacen retroceder a la IA Innovación

Los disparadores de ChatGPT hacen retroceder a la IA

La conversación sobre IA ha estado cobrando un impulso significativo durante los últimos cinco años, pero ¿miraremos hacia atrás en marzo de 2023 como el momento en que el interés en esta área realmente irrumpió en la conciencia general de sus dominios especializados anteriores de tecnología, academia, legal? política e interés por la ciencia ficción? Max Tegmark podría tener algo que decir al respecto, pero en mi opinión, el lanzamiento de GPT-4 el 14 de marzo ha elevado la conversación sobre IA a un plano completamente nuevo.

"FRANCIA-TECNOLOGÍA-IT-AI"

La conciencia pública y el interés en la IA han aumentado desde el lanzamiento del chatbot de OpenAI, ChatGPT, en noviembre de 2022, pero el lanzamiento de GPT-4, el modelo de lenguaje grande multimodal que sustenta el bot, ha provocado reacciones sin precedentes que, a su vez, se han capturado en todo el mundo. prensa y atención de los medios.

Me refiero a dos reacciones en particular.

"Heidi

Musk y FOLI piden moratoria de IA

En primer lugar, el 22 de marzo, el Future of Life Institute ("FOLI") publicó una carta abierta en la que pedía a todos los laboratorios de IA que "detuvieran inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GT-4". El telón de fondo de esta demanda es, según los firmantes, que “en los últimos meses, los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender. predecir o controlar de forma fiable”. Esto es aleccionador, dado que los signatarios observan que "los sistemas de inteligencia artificial con inteligencia humana y competitiva pueden plantear riesgos profundos para la sociedad y la humanidad". Y al justificar su llamado a una moratoria, las firmas reproducen las propias palabras de OpenAI:

La declaración reciente de OpenAI sobre la inteligencia artificial general establece que "En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados para acordar limitar la tasa de crecimiento de cómputo utilizado para crear nuevos modelos." Estamos de acuerdo. Ese punto es ahora”.

En la era de "Cancelar cultura", sería sorprendente si no hubiera una reacción violenta contra AI al ver cuánta atención ha estado recibiendo ChatGPT, pero el interés periodístico de la carta de FOLI se deriva no solo de su contenido, sino también de las identidades de los signatarios Por supuesto, Elon Musk y Steve Wozniak seguramente atraerán el mayor interés, debido a su fama y roles pioneros en el mundo de la tecnología, pero un vistazo rápido a la lista muestra que muchos pensadores líderes en el espacio de la IA comparten los puntos de vista. . Muchos pensadores serios en el campo de la IA están expresando puntos de vista muy serios.

Pero para mantener el equilibrio, vale la pena señalar que la carta no ha sido aceptada universalmente en la comunidad de liderazgo de IA y, como han señalado otros, FOLI está financiada por la Fundación Musk. Además, Musk fue cofundador de OpenAI, pero dejó esa organización en 2018 debido a un "conflicto de intereses".

El regulador de protección de datos de Italia prohíbe el uso de ChatGPT de datos italianos

En segundo lugar, el 31 de marzo, el GPDP, el regulador italiano de protección de datos, impuso una prohibición temporal al procesamiento de los datos de los usuarios italianos por parte de ChatGPT. El GPDP parece estar en una misión anti-IA en este momento, ya que esta es la segunda prohibición de IA que impone este año, luego de la impuesta a otro chatbot en febrero.

El informe en inglés que se encuentra en el sitio web del GPDP no es completo y es posible que la traducción no haga justicia al razonamiento aplicado, pero las cuestiones clave son las siguientes:

El 20 de marzo se informó de una filtración de datos que afectó las conversaciones de los usuarios de ChatGPT y la información sobre los pagos de los suscriptores. Presumiblemente, se trata de una referencia a una violación de datos personales en el sentido del artículo 4.12 del Reglamento general de protección de datos de la UE. No se proporciona información a los usuarios y sujetos de datos cuyos datos son recopilados por OpenAI. Presumiblemente, se trata de una referencia a las reglas de transparencia del RGPD en los artículos 12, 13 y 14. No parece haber una base legal que sustente "la recopilación y el procesamiento masivos de datos personales para 'entrenar' los algoritmos en los que se basa la plataforma". Esto debe ser una referencia a las reglas sobre la legitimidad del procesamiento de datos en los Artículos 6 a 9. “La información puesta a disposición por ChatGPT no siempre coincide con las circunstancias de hecho, por lo que se procesan datos personales inexactos”. Esto debe ser una referencia al principio de precisión en el Artículo 5.1.d. No existe un mecanismo de verificación de edad para el uso de la plataforma por parte de niños. Esto debe ser una referencia al Artículo 8.2, pero el GPDP también expresa su preocupación por la idoneidad de las respuestas del chatbot que reciben los niños.

A la vista de la traducción al inglés, estrictamente hablando, parece que el GPDP no está prohibiendo ChatGPT. En cambio, la prohibición se relaciona con el uso que hace OpenAI de los datos personales de los usuarios italianos. Esto probablemente significa que el GPDP tiene la intención de que OpenAI no use los datos personales de las personas que están protegidas por la implementación italiana del RGPD para fines de aprendizaje automático, ni que procese los datos personales de ningún usuario del chatbot que esté protegido de manera similar. lo que en cualquier situación significará más que ciudadanos italianos. Sin embargo, en la última situación, es decir, el uso del chatbot en sí mismo, es probable que los datos personales de los usuarios del chatbot tengan un alcance muy limitado, es decir, se limiten a los datos del suscriptor (a menos que el usuario haya estado realizando búsquedas vanas sobre sí mismo).

Pero a todos los efectos, la orden del GPDP constituye una prohibición de facto del uso de ChatGPT en Italia, si realmente se extiende a prohibir el procesamiento de los datos personales de los usuarios, ya que no hay forma de usar el sistema sin iniciar sesión, lo que requiere el envío de una dirección de correo electrónico (a menos que el usuario seleccione las opciones de inicio de sesión de OAuth proporcionadas por Google y Microsoft), que probablemente sean datos personales en muchos casos. Además, podría ser imposible para OpenAI separar los datos de capacitación que están cubiertos por la ley de protección de datos de Italia de su modelo (o podría no estar dispuesto a hacerlo por razones estratégicas, para proteger su posición legal).

Por lo tanto, hasta que se resuelva la situación, ChatGPT está prácticamente prohibido en Italia. Puede que no sea una prohibición de jure, pero una prohibición de facto puede lograr los mismos resultados: la tecnología se detiene en seco.

¿Cómo debería ser el marco regulatorio?

Estos dos desarrollos destacan el epicentro de los problemas que la comunidad de partes interesadas de IA debe abordar. Esencialmente, les preocupa la naturaleza del marco regulatorio que debería aplicarse y el alcance de la supervisión independiente que los desarrolladores de IA deberían aceptar como parte de una licencia para operar.

Claramente, si los riesgos son tan altos como sugiere FOLI, sería totalmente inaceptable que la industria de la tecnología autorregulara su enfoque de la IA o permitiera que el poder se concentrara en manos de un pequeño grupo de empresas.

Propuesta de la UE para regular la IA

La UE ya está lidiando con estas preguntas y propone un Reglamento de IA que jerarquizará los sistemas de IA en función de sus niveles de riesgo, con todo supervisado por una nueva Junta de Inteligencia Artificial paneuropea y un sistema de reguladores nacionales. Si este marco de riesgo se aplicara a ChatGPT en su función de chatbot, se consideraría como un sistema de riesgo limitado.

"GRAN BRETAÑA-POLÍTICA-UE-BREXIT"

Enfoque del Reino Unido para regular la IA

El Reino Unido está adoptando un enfoque diferente. En lugar de crear un nuevo sistema regulatorio, el sistema actual de reguladores deberá considerar los problemas de IA dentro de sus funciones regulatorias diarias, guiado por cinco nuevos principios regulatorios que eventualmente se codificarán en la legislación. La principal preocupación del actual gobierno del Reino Unido es promover la innovación y el crecimiento, para asegurar al país un papel de liderazgo global como una potencia de IA. La UE también quiere eso, por lo que el problema real será cómo equilibrar el crecimiento con los intereses contrapuestos, como la protección de datos y otros derechos e intereses.

El problema que plantea la carta de FOLI es que, a pesar de todo lo que se habla sobre crecimiento, innovación y equilibrio de derechos, es posible que no estemos abordando el problema más existencial de todos, que es que la IA podría representar una amenaza para la humanidad misma. En ese sentido, como nos ha informado el Sr. Tegmark, podríamos estar en la cúspide del desarrollo de una nueva forma de vida, Life 3.0. Si eso es cierto, entonces tal vez la enormidad de los problemas no se haya comprendido completamente dentro de los debates que están dando forma a los marcos regulatorios. Al igual que con los avances científicos que llevaron al desarrollo de las armas nucleares, ¿estamos ignorando el riesgo de que estemos tomando el camino de la progresión tecnológica que, en última instancia, puede amenazar nuestra existencia y que somos incapaces de deshacer?

"A

¿Moratoria improbable?

Pero incluso si somos conscientes de la enormidad de la elección que enfrentamos, ¿qué haremos al respecto en un mundo donde la humanidad parece destinada a amenazar sus propios intereses incluso cuando todas las alarmas concebibles han sonado? ¿Es inevitable nuestra progresión hacia un futuro distópico de IA, de la misma manera que parece imposible evitar una progresión hacia una catástrofe climática? Quizás el argumento que más probablemente evitará una moratoria de la IA en Occidente será que China, Rusia, India, etc., seguirán adelante a pesar de todo. Además, no necesitamos mirar a los rivales de Occidente para identificar las barreras a una moratoria de IA: no sorprende en absoluto que los directores generales de Microsoft y Google no hayan agregado sus firmas a la carta de FOLI.

Sin embargo, ninguno de estos argumentos por sí solo hace que la posición del GPDP en ChatGPT sea incuestionable. Mirando la lista de problemas que se han destacado, al menos uno de ellos parece sospechoso luego de un mínimo de análisis: es decir, el uso de datos personales para fines de aprendizaje automático puede tener una base legal dentro del criterio de interés legítimo del Artículo 6 de GDPR, o dentro del criterio de información manifiestamente pública del artículo 9, en lo que se refiere a categorías especiales de datos personales. De hecho, la presencia de un interés legítimo para el procesamiento masivo de datos personales por parte de empresas tecnológicas fue implícitamente reconocida por el Tribunal de Justicia de la UE en el caso del derecho al olvido que involucra a Google.

También es posible que el GPDP haya estirado las reglas sobre el consentimiento de los padres más allá de su elasticidad, al extender el propósito legal a la calidad y el contenido de la información que un niño puede recibir a través de un chatbot, en contraste con la forma en que un chatbot procesa la información personal de ese niño. datos. Las reglas de transparencia y las reglas de precisión también tienen limitaciones si la redacción del RGPD de la UE se toma al pie de la letra. Finalmente, está la cuestión del ejercicio de la discrecionalidad regulatoria: si un chatbot se considera de bajo riesgo según el Reglamento de IA de la UE propuesto, ¿realmente equivale a un ejercicio justo de discrecionalidad prohibirlo según el RGPD?

¿Debe la privacidad ser la única voz en la habitación?

Los problemas planteados por el GPDP presumiblemente resultarán en una remisión del caso al Tribunal de Justicia y conoceremos las respuestas con el tiempo, pero el GPDP ha, ya sea intencionalmente o no, arrojar una luz muy necesaria sobre el tema. de primacía de las partes interesadas (al igual que FOLI). Si un sistema es de bajo riesgo cuando se ve a través de la lente de la legislación especializada en IA y si la IA puede ser un poder para el bien, ¿por qué un regulador de protección de datos debería tener primacía sobre el tema de la accesibilidad y el uso de un chatbot y poder implementar una prohibición? por voluntad propia?

Por supuesto, la protección de datos es un tema de enorme importancia, pero no es el único problema que aborda la IA. Tal vez, dado el estado del marco regulatorio, no haya otra voz en la sala con poder regulatorio efectivo, pero si la protección de datos es la única área que actualmente tiene un aspecto regulatorio real en el juego, parecería una gran vergüenza.