Tecnología

tecnología que permite «hablar» al chatbot más popular

Las respuestas que dan casi al instante estas aplicaciones a lo que las personas plantean han asombrado a varios expertos, como Bill Gates.

Por iProfesional

14/06/2023 – 10,22hs

Los chatbots basados en inteligencia artificial como ChatGPT de OpenAI o Bard de Google han demostrado en pocos meses lo útiles que son. Los llamados modelos de lenguaje de gran tamaño (Large language models, LLM) son herramientas entrenadas con grandes cantidades de datos para conversar, resolver dudas o agilizar las tareas de los usuarios como lo haría un humano.

Las respuestas que dan casi al instante a lo que las personas plantean han asombrado a varios expertos, como Bill Gates. El cofundador de Microsoft admitió en su blog hace unos meses que lo que se estaba consiguiendo con la IA le recordaba a lo que supuso la interfaz gráfica en su día.

Pero, aunque los LLM actuales nos parezca increíble, todavía es algo incipiente a lo que le queda mucho recorrido por delante. Por ese motivo, para que no se salga de control, los reguladores están comenzando a plantear normas, más o menos restrictivas, como la de la Unión Europea, EEUU o Japón.

Los resultados que los LLM están dando, tan parecidos a los que daría un humano, no surgen de la nada. Detrás de ello, hay un entrenamiento que tiene en cuenta millones de datos que circulan por Internet.

Por ejemplo, el modelo LaMDA (Language Model for Dialogue Applications) en el que se basa Bard, utiliza la Wikipedia, «foros públicos» y «documentos de código de sitios relacionados con la programación, como sitios de preguntas y respuestas, tutoriales, etc.».

Ante el uso de los foros como información de entrenamiento, Reddit y StackOverflow anunciaron sus intenciones de comenzar a cobrar por acceder a sus conversaciones de texto en línea.

ChatGPT popularizó la inteligencia artificial.

ChatGPT popularizó la inteligencia artificial.

El motor de la inteligencia artificial

Todos los datos recopilados de Internet (de momento de forma gratuita para los desarrolladores de IA) se procesan en una red neuronal. Esto último es una especie de motor de la IA compuesto por nodos y capas y que se ajustan constantemente para interpretar y dar sentido a la información almacenada en función al contexto de la conversación, teniendo en cuenta los resultados de pruebas y errores anteriores.

La mayoría de los LLM utilizan una estructura de red neuronal llamada transformador. Este concepto comenzó a usarlo Google en 2017, al hablar de su desarrollo en IA. Ahora lo usan más marcas, como OpenAI, con sus siglas GPT, que significan ‘Generative Pre-Trained Transformer’.

Un transformador es capaz de leer grandes cantidades de texto (como las que manejan los grandes LLM) y detectar patrones de cómo se formulan las frases y cómo se relacionan las palabras. De esta manera, las conversaciones que tan reales parecen con los chatbots son todo fruto del procesamiento de datos con transformadores.

ChatGPT o Bard tienen poco de inteligentes, pese a que se les conozca como IA. Eso se debe a que no saben lo que dicen, sino que han aprendido a cómo poner una palabra detrás de otra para que el texto sea coherente y más creativo.

Sin embargo, también ponen atención a no repetirse, por lo que, a veces, no escogen las palabras más correctas para continuar su oración y eso puede llevar a textos con menos sentido. Esto último, por suerte, no ocurre con tanta frecuencia en los modelos más avanzados y se espera que, con el tiempo, lo hagan mucho menos.

Otro error es que el texto generado suele dar respuestas genéricas o clichés con el objetivo de sintetizar la información. Una gran ventaja de los LLM es que resumen el contenido que hay en la web, sin embargo, si queremos extendernos, no suelen ser la opción idónea de momento.

ChatGPT es la aplicación de IA más popular del orbe.

ChatGPT es la aplicación de IA más popular del orbe.

Para optimizar sus respuestas, las compañías contratan a supervisores capacitados y se aprovechan también de los usuarios finales que corrigen a los LLM. Así, estos modelos pueden ir aprendiendo de sus errores y comprender cuando ha respondido mal, cuando podría hacerlo mejor y cuando ha mentido. A esto se le conoce como Aprendizaje de refuerzo sobre la retroalimentación humana (RLHF son sus siglas en inglés).

Fuente: iprofesional.com

Comentarios de Facebook

Publicaciones relacionadas

Botón volver arriba