Escriba para buscar

Iterando más rápido: lecciones aprendidas de Google Bard vs. ChatGPT Innovación

Iterando más rápido: lecciones aprendidas de Google Bard vs. ChatGPT

Moaz Nabiel es el fundador de TrimCheck, una aplicación de reservas todo en uno para peluqueros móviles y peluqueros independientes.

"sin título"

La inteligencia artificial ha sido una de las tecnologías más transformadoras de la última década, y su impacto en las industrias, desde la atención médica hasta las finanzas, ha sido significativo. En el campo de la IA, la velocidad de iteración puede marcar la diferencia. Dos ejemplos recientes de esto son el desarrollo de los modelos BERT y BARD de Google y la serie de modelos GPT de OpenAI. Al iterarse rápidamente, estos modelos se han vuelto cada vez más poderosos y efectivos, arrasando Internet debido a sus capacidades innovadoras.

Google ha sido uno de los jugadores más importantes en el campo de la IA y su modelo BERT se lanzó por primera vez a fines de 2018. Desde entonces, la compañía ha lanzado varias versiones nuevas, cada una con sus propias mejoras y características. En 2019, Google lanzó ALBERT, una versión "lite" de BERT que logró resultados de última generación en varias tareas de procesamiento de lenguaje natural utilizando significativamente menos parámetros. En 2020, Google lanzó ELECTRA, un modelo que logró resultados de vanguardia en varias tareas comparativas y fue más eficiente computacionalmente que BERT. Ese mismo año, Google lanzó T5, un modelo que combinaba el aprendizaje por transferencia de texto a texto con ajustes en tareas específicas. Más recientemente, Google lanzó BARD, un modelo que se basa en las fortalezas de BERT al tiempo que incorpora capacidades adicionales como entradas multimodales y respuesta a preguntas.

Vale la pena señalar que es inusual que una empresa tan grande como Google itere tan rápido, ya que la burocracia y la aversión al riesgo a menudo pueden ralentizar el proceso. Sin embargo, este enfoque a menudo ha resultado exitoso para Google, como sucedió durante las guerras de navegadores entre Chrome e Internet Explorer. A pesar de lanzar Chrome en 2008, una década después del inicio de la guerra de los navegadores, Chrome pudo superar a Internet Explorer como navegador líder en 2012 gracias a su estrategia de iteración rápida y actualizaciones constantes.

Sin embargo, esta vez, el énfasis en la velocidad puede haber causado una reacción negativa que resultó demasiado costosa desde el punto de vista de las relaciones públicas, incluso para Google. Muchos piensan que el éxito de GPT-3.5 de OpenAI puede haber forzado la mano de Google prematuramente. Su lanzamiento beta fue menos que ideal, con una serie de contratiempos, como que el modelo proporcionó resultados incorrectos a las preguntas sobre el telescopio espacial James Webb durante su anuncio de debut. Esto llevó a la empresa matriz de Google, Alphabet, a perder más de 102.000 millones de dólares en valor de mercado, ya que las acciones de Alphabet cayeron un 7,7 % al día siguiente.

Aunque priorizar la velocidad sobre la calidad de la iteración evidentemente puede tener sus ventajas y desventajas, en el campo de la IA, la carrera por acumular datos masivos requiere este enfoque. Esto se debe a que cuantas más iteraciones realice un modelo, más rápido podrá obtener más datos y comentarios para mejorar su modelo.

La importancia de la velocidad de iteración en IA se puede atribuir al efecto compuesto que tiene ser el primero en el mercado en el rendimiento de un modelo. En un campo donde el volumen de datos juega un papel crucial en la precisión de un modelo, la ventaja de ser el primero en moverse crea una barrera de entrada cada vez mayor para otros competidores. Es posible que Google haya apresurado el lanzamiento de BARD porque entiende que sus modelos siempre se pueden mejorar, pero una vez que se pierde la ventaja de ser el primero en moverse, la barrera se vuelve cada vez más grande de superar, incluso con un modelo superior.

La serie de modelos GPT de OpenAI es un excelente ejemplo de iteración rápida en IA que salió bien. El primer modelo de la serie, GPT-1, se lanzó en 2018 y ya supuso un gran avance en el campo del procesamiento del lenguaje natural (PNL). GPT-1 se entrenó en un gran corpus de datos de texto y pudo generar oraciones y párrafos coherentes en respuesta a las indicaciones. Sin embargo, las iteraciones posteriores de la serie GPT han sido aún más impresionantes.

GPT-2, lanzado en 2019, se entrenó en un corpus de datos de texto aún más grande y pudo generar texto coherente y muy convincente. Sin embargo, GPT-2 se retuvo de manera controvertida debido a preocupaciones sobre su posible uso indebido para generar noticias falsas u otro contenido malicioso. A pesar de esto, GPT-2 aún pudo lograr avances significativos en el campo de la PNL.

En 2020, OpenAI lanzó GPT-3, que rápidamente se convirtió en el modelo más comentado en la comunidad de PNL. GPT-3 se entrenó en un corpus de datos de texto aún mayor que GPT-2 y pudo generar texto muy convincente que podía realizar una variedad de tareas, incluida la traducción, la respuesta a preguntas e incluso la redacción de artículos completos. El éxito de GPT-3 se ha atribuido a su capacidad para generar texto con estilo y calidad similar al texto escrito por humanos, lo que lo hace adecuado para una amplia gama de aplicaciones.

Sin embargo, GPT-3 no estuvo exento de inconvenientes. Algunos usuarios informaron que el modelo producía resultados sesgados o inexactos, y había preocupaciones sobre el potencial de uso indebido del modelo para generar noticias falsas u otro contenido malicioso. Estas preocupaciones llevaron a OpenAI a restringir el acceso a la versión completa de GPT-3 y exigir que los usuarios soliciten acceso.

A pesar de estas preocupaciones, el éxito de GPT-3 destaca la importancia de una iteración rápida en el campo de la IA. Al mejorar e iterar constantemente en sus modelos, OpenAI ha podido mantenerse por delante de la competencia y lograr avances significativos en el campo de la IA, y ya se rumorea que la próxima versión (GPT-4) se lanzará en el primer trimestre de 2023.

A medida que la IA evoluciona, podemos anticipar avances aún más impresionantes en el futuro. Dado que el procesamiento de datos y lenguaje natural se vuelve cada vez más importante, será fascinante ver cómo empresas como Google y OpenAI continuarán ampliando los límites de lo que es posible a través de la IA. Con cada nuevo lanzamiento, crece el potencial de la IA para revolucionar nuestro mundo de formas nuevas y emocionantes.

Para concluir, no se puede exagerar la importancia de la iteración rápida en el campo de la IA. A medida que el campo continúa creciendo, la capacidad de recopilar rápidamente comentarios y mejorar los modelos será fundamental para el éxito. Es una carrera para mantenerse a la vanguardia, y las empresas que puedan iterar de la manera más rápida y efectiva saldrán ganando. Sin embargo, es importante equilibrar las compensaciones entre velocidad y calidad, como ha demostrado la experiencia de Google con la versión beta de BARD.