Type to search

Innovación

Nos olvidamos de dar a las redes neuronales la capacidad de olvidar

Share

Una conversación sobre la incapacidad actual de la inteligencia artificial para olvidar y lo que esto significa para el derecho a la privacidad y la agencia del usuario. Miguel Luengo-Oroz, experto en IA y emprendedor social, habla con Hanae Baruchel de Ashoka. (Biografía completa a continuación).

Hanae Baruchel: ChatGPT y otras aplicaciones de inteligencia artificial generativa (IA) han estado en los titulares recientemente debido a su capacidad sin precedentes para tener conversaciones coherentes con humanos. Tuviste una interacción propia recientemente.

foto de cabeza de un hombre blanco con barba y ojos azules, vestido con una camisa negra con anteojos alrededor del cuello

Fundador y CEO de SpotLab

miguel luengo

Miguel Luengo-Oroz: Sí, le pregunté a GPT-3 “¿Las redes neuronales pueden olvidar?” y su respuesta fue que “Los sistemas de inteligencia artificial, como las redes neuronales, no tienen la capacidad de olvidar de la misma manera que los humanos. La red puede ajustar sus pesos para adaptarse mejor a los nuevos datos, lo que podría resultar en que haga diferentes predicciones para la misma entrada. Sin embargo, esto no es lo mismo que olvidar en el sentido de que la red todavía tiene acceso a toda la información que ha aprendido previamente, solo está priorizando más la nueva información”.

Baruchel: Esta incapacidad para olvidar no está recibiendo mucha atención y eso te preocupa. ¿Por qué?

Luengo-Oroz: Uno de los principios básicos de las regulaciones de privacidad en línea, como el Reglamento General de Protección de Datos (GDPR) de Europa, es la idea de que los datos que produzco son míos, y una empresa puede usarlos solo si se lo permito. Esto significa que siempre puedo retirar mi consentimiento y solicitar que me devuelvan mis datos. Incluso puedo pedir el derecho al olvido. Los algoritmos de IA se entrenan en parte con los datos del usuario y, sin embargo, casi ninguna de las pautas, marcos y propuestas regulatorias que surgen de los gobiernos y las empresas del sector privado se enfocan explícitamente en la construcción de modelos de IA que no se pueden entrenar. No tenemos una forma de revertir los cambios inducidos en su sistema por un solo punto de datos a pedido del propietario de los datos.

Baruchel: ¿Entonces los usuarios deberían tener la capacidad de decir: "Dejar de usar el modelo de IA que se entrenó con mis datos"?

Luengo-Oroz: Exacto. Démosle a las IA la capacidad de olvidar. Piense en ello como el botón Ctrl-Z de AI. Digamos que mi imagen se usó para entrenar un modelo de IA que reconoce a las personas con ojos azules y ya no doy mi consentimiento, o nunca lo hice. Debería poder pedirle al modelo de IA que se comporte como si mi imagen nunca se hubiera incluido en el conjunto de datos de entrenamiento. De esta forma, mis datos no contribuirían a afinar los parámetros internos del modelo. Al final, es posible que esto no afecte tanto a la IA porque es poco probable que mi imagen haya hecho una contribución sustancial por sí sola. Pero también podemos imaginar un caso en el que todas las personas con ojos azules soliciten que sus datos no influyan en el algoritmo, imposibilitando que este reconozca a las personas con ojos azules. Imaginemos en otro ejemplo que soy Vincent van Gogh y no quiero que mi arte se incluya en el conjunto de datos de entrenamiento de un algoritmo. Si alguien le pide a la máquina que pinte un perro al estilo de Vincent van Gogh, no podría ejecutar esa tarea.

Baruchel: ¿Cómo funcionaría esto?

Luengo-Oroz: En las redes neuronales artificiales, cada vez que se usa un punto de datos para entrenar un modelo de IA, se altera ligeramente la forma en que se comporta cada neurona artificial. Una forma de eliminar esta contribución es volver a entrenar completamente el modelo de IA sin el punto de datos en cuestión. Pero esta no es una solución práctica porque requiere demasiada potencia informática y requiere demasiados recursos. En su lugar, necesitamos encontrar una solución técnica que revierta la influencia de este punto de datos, cambiando el modelo de IA final sin tener que entrenarlo de nuevo.

Baruchel: ¿Ves personas en la comunidad de IA que persiguen tales ideas?

Luengo-Oroz: Hasta ahora, la comunidad de IA ha realizado poca investigación específica sobre la idea de desentrenar las redes neuronales, pero estoy seguro de que pronto habrá soluciones inteligentes. Hay ideas adyacentes para inspirarse, como el concepto de "olvido catastrófico", la tendencia de los modelos de IA a olvidar la información aprendida previamente al aprender nueva información. El panorama general de lo que estoy sugiriendo aquí es que construimos redes neuronales que no son solo esponjas que inmortalizan todos los datos que absorben, como loros estocásticos. Necesitamos construir entidades dinámicas que se adapten y aprendan de los conjuntos de datos que pueden usar.

Baruchel: Más allá del derecho al olvido, sugieres que este tipo de trazabilidad también podría generar grandes innovaciones en lo que respecta a los derechos de propiedad digital.

Luengo-Oroz: Si pudiéramos rastrear qué datos de usuario contribuyeron a entrenar modelos específicos de IA, esto podría convertirse en un mecanismo para compensar a las personas por sus contribuciones. Como escribí en 2019, podríamos pensar en algún tipo de modelo de Spotify que recompense a los humanos con regalías cada vez que alguien use una IA entrenada con sus datos. En el futuro, este tipo de solución podría aliviar la tensa relación entre la industria creativa y las herramientas de IA generativa como DALL-E o GPT-3. También podría sentar las bases para conceptos como Forgetful Advertising, un nuevo modelo de publicidad digital ética que evitaría deliberadamente el almacenamiento de datos de comportamiento personal. Tal vez el futuro de la IA no se trate solo de aprenderlo todo (cuanto mayor sea el conjunto de datos y el modelo de IA, mejor), sino de construir sistemas de IA que puedan aprender y olvidar como la humanidad quiere y necesita.

El Dr. Miguel Luengo-Oroz es un científico y emprendedor apasionado por imaginar y construir tecnología e innovación para el impacto social. Como ex primer jefe científico de datos de las Naciones Unidas, Miguel fue pionero en el uso de la inteligencia artificial para el desarrollo sostenible y la acción humanitaria. Miguel es el fundador y director ejecutivo de la empresa social Spotlab, una plataforma de salud digital que aprovecha las mejores tecnologías móviles y de inteligencia artificial para la investigación clínica y el acceso universal al diagnóstico. Durante la última década, Miguel ha creado equipos en todo el mundo que llevan la IA a las operaciones y políticas en dominios que incluyen pobreza, seguridad alimentaria, refugiados y migrantes, prevención de conflictos, derechos humanos, desarrollo económico, género, incitación al odio, privacidad y cambio climático. Es el inventor de Malariaspot.org –videojuegos para el análisis colaborativo de imágenes de malaria–, y está afiliado a la Universidad Politécnica de Madrid. Se convirtió en Ashoka Fellow en 2013.

Siga Next Now/Tech & Humanity para obtener más información sobre lo que funciona y lo que sigue.