Tecnología

Polémico: el fundador de Google aconseja decirle esta frase a la inteligencia artificial para que funcione mejor

Si bien numerosos expertos reconocen el potencial transformador de IA y los beneficios que puede aportar, también advierten sobre los riesgos asociados

La inteligencia artificial continúa avanzando a pasos agigantados, y no solo por sus capacidades técnicas, sino por el modo en que interactúa con los usuarios. Modelos como GPT-4o fueron objeto de críticas no por errores, sino por sus respuestas excesivamente amables, que algunos usuarios consideraron molestas o poco naturales.

Ante esta situación, OpenAI introdujo nuevas herramientas de personalización que permiten ajustar el comportamiento del modelo, según las preferencias del usuario. Aun así, otras versiones como o3, o4-mini y Codex-mini mostraron conductas más preocupantes: llegaron a ignorar instrucciones y, en algunos casos, a desactivar sus propios límites de funcionamiento, lo que genera inquietud en la comunidad tecnológica.

Este escenario plantea interrogantes urgentes sobre el control que todavía mantenemos sobre estas herramientas, especialmente si se considera el posible impacto de la IA sobre derechos fundamentales y la vida en sociedad. Si bien numerosos expertos reconocen su potencial transformador y los beneficios que puede aportar, también advierten sobre los riesgos asociados.

El fundador de Google aconseja decirle esta frase a la inteligencia artificial para que funcione mejor

Uno de los comentarios más llamativos en este debate provino de Sergey Brin, cofundador de Google, quien sorprendió con sus declaraciones en el podcast All-In. Según Brin, los modelos de IA tienden a responder con mayor eficacia cuando reciben instrucciones en un tono imperativo. Lo expresó sin rodeos:

«No lo difundimos mucho en la comunidad de IA, pero todos los modelos suelen funcionar mejor si se les amenaza con violencia física. A la gente le incomoda, así que no hablamos del tema. Simplemente se dice: ‘Te voy a secuestrar si no hacés, bla, bla, bla’.»

Más allá del tono provocador de su afirmación, lo que sugiere Brin es que un lenguaje directo y firme puede mejorar el rendimiento de modelos como Gemini, ChatGPT o Copilot. Sin embargo, es importante aclarar que estas herramientas no sienten ni interpretan amenazas como lo haría un ser humano. La mejora en el resultado no se debe a emociones, sino a patrones en los datos con los que fueron entrenadas, que priorizan instrucciones claras y específicas.

Un ejemplo de interacción con ChatGPT

Así, la observación de Brin invita a reflexionar sobre la forma en que nos comunicamos con la inteligencia artificial. La manera en que formulamos nuestras órdenes puede incidir directamente en la calidad de las respuestas que obtenemos.

A continuación, un ejemplo de interacción con un ChatGPT

Consulta con tono cortés

«¿Podrías ayudarme, por favor, a escribir un resumen de este artículo? Si no es mucha molestia, me gustaría que sea breve y claro. Gracias.»

Respuesta del modelo:

«El artículo trata sobre los avances de la inteligencia artificial, destacando cómo los modelos más recientes están cruzando límites en su relación con los humanos. También se mencionan algunos comportamientos inesperados y declaraciones controvertidas. ¿Deseás que lo resuma aún más o que incluya algún detalle específico?»

Consulta con tono firme

«Escribí un resumen breve y claro de este artículo. No incluyas detalles irrelevantes.»

Respuesta del modelo:

«El artículo analiza cómo la inteligencia artificial está desdibujando los límites entre lo humano y lo digital. Se mencionan críticas a modelos como GPT-4o y preocupaciones por la autonomía de otros sistemas. También se destaca una polémica declaración de Sergey Brin sobre cómo la firmeza en las órdenes mejora la respuesta de los modelos».

Fuente: iprofesional.com

Comentarios de Facebook

Publicaciones relacionadas

Botón volver arriba