Google ofrece parte de la IA que impulsa los chatbots

Google ofrece parte de la IA que impulsa los chatbots

Cuando Meta compartió el código informático en bruto necesario para crear un chatbot el año pasado, las empresas rivales dijeron que Meta estaba lanzando al mundo tecnología poco comprendida y quizás incluso peligrosa.

Ahora, en una señal de que los críticos de compartir la tecnología de IA están perdiendo terreno frente a sus pares de la industria, Google está tomando una decisión similar. Google publicó el miércoles el código informático que impulsa su chatbot en línea, después de ocultar este tipo de tecnología durante muchos meses.

Al igual que Meta, Google dijo que los beneficios de compartir libremente la tecnología (llamado modelo de lenguaje extendido) superan los riesgos potenciales.

La compañía dijo en una publicación de blog que estaba lanzando dos modelos de lenguaje de inteligencia artificial que podrían ayudar a empresas externas y desarrolladores de software independientes a crear chatbots en línea similares al propio chatbot de Google. Llamadas Gemma 2B y Gemma 7B, estas no son las tecnologías de inteligencia artificial más poderosas de Google, pero la compañía ha argumentado que rivalizan con muchos de los sistemas líderes de la industria.

«Esperamos volver a involucrar a la comunidad de desarrolladores externos y garantizar que» los modelos basados ​​en Google se conviertan en un estándar de la industria sobre cómo se construye la IA moderna, dijo Tris Warkentin, director de gestión de productos de Google DeepMind, en una entrevista. .

Google ha dicho que no tiene planes de lanzar su modelo insignia de IA, Gemini, de forma gratuita. Como es más eficiente, Géminis también podría causar más daño.

Este mes, Google comenzó a cobrar por el acceso a la versión más potente de Gemini. Al ofrecer el modelo como un servicio en línea, la empresa puede controlar más de cerca la tecnología.

Temiendo que las tecnologías de inteligencia artificial puedan usarse para difundir información errónea, discursos de odio y otros contenidos tóxicos, algunas empresas, como OpenAI, el fabricante del chatbot en línea ChatGPT, se han vuelto cada vez más reservadas sobre los métodos y el software que sustentan sus productos.

Pero otros, como Meta y la startup francesa Mistral, han argumentado que compartir código libremente (llamado código abierto) es el enfoque más seguro porque permite a terceros identificar problemas con la tecnología y sugerir soluciones.

Yann LeCun, científico jefe de IA de Meta, argumentó que los consumidores y los gobiernos se negarán a adoptar la IA a menos que escape del control de empresas como Google, Microsoft y Meta.

“¿Quiere que todos los sistemas de inteligencia artificial estén bajo el control de unas pocas empresas estadounidenses poderosas? «, dijo al New York Times el año pasado.

En el pasado, Google ha abierto muchas de sus principales tecnologías de IA, incluidas tecnología fundamental para los chatbots de IA. Pero bajo la presión competitiva de OpenAI, la forma en que se construyeron se volvió más secreta.

La compañía decidió hacer que su IA volviera a estar disponible de forma más gratuita debido al interés de los desarrolladores, dijo en una entrevista Jeanine Banks, vicepresidenta de relaciones con desarrolladores de Google.

Mientras se preparaba para lanzar sus tecnologías Gemma, la compañía dijo que había trabajado para garantizar su seguridad y que usarlas para difundir desinformación y otros contenidos dañinos violaba su licencia de software.

«Nos esforzamos por ofrecer enfoques completamente seguros en la medida de lo posible, tanto en el ámbito privado como en el abierto», afirmó Warkentin. «Con el lanzamiento de estos modelos 2B y 7B, estamos relativamente seguros de que hemos adoptado un enfoque extremadamente seguro y responsable para garantizar que puedan aterrizar bien en la industria».

Pero los malos actores aún podrían utilizar estas tecnologías para causar problemas.

Google permite a los usuarios cargar sistemas que han sido entrenados con grandes cantidades de texto digital extraído de Internet. Los investigadores llaman a esto “desbloquear los pesos”, en referencia a los valores matemáticos particulares que aprende el sistema al analizar los datos.

Analizar todos estos datos normalmente requiere cientos de chips de computadora especializados y decenas de millones de dólares. Estos son recursos que la mayoría de las organizaciones –y mucho menos los individuos– no tienen.

You may also like...