Tecnología

Un grupo de expertos se reunió en San Francisco para discutir qué hará la IA tras el fin de la humanidad

Diversas personalidades y empresas llevan años advirtiendo sobre los posibles riesgos que la inteligencia artificial (IA) representa para la humanidad. Entre estas voces se encuentran Eliezer Yudkowsky, experto en IA y activista del racionalismo, quien ha afirmado que «la IA nos matará a todos«, y Geoffrey Hinton, considerado uno de los padres de la inteligencia artificial, quien se retiró de Google para alertar sobre los peligros de esta tecnología. 

Encuentro en San Francisco analiza el rol de la IA en la transición poshumana

Recientemente, tuvo lugar un encuentro exclusivo en una mansión de 30 millones de dólares con vista al Golden Gate en San Francisco, donde un grupo selecto de investigadores, filósofos y tecnólogos se reunió para discutir el futuro de la IA en un simposio llamado «Sucesor Digno» (Worthy Successor).

La idea central, impulsada por el emprendedor Daniel Faggella, fue que el «objetivo moral» de una IA avanzada debería ser desarrollar una inteligencia tan poderosa y sabia que se prefiera que sea ella —y no la humanidad— quien determine el futuro de la vida.

Según reportó la revista Wired, Faggella explicó que este evento se enfocó en la «transición poshumana» y no en la inteligencia artificial general que «siempre servirá como herramienta para la humanidad».

El simposio contó con alrededor de 100 asistentes, quienes disfrutaron de bebidas sin alcohol y aperitivos mientras se desarrollaban tres charlas sobre el futuro de la IA.

Faggella justificó la organización del evento señalando que «los grandes laboratorios, quienes saben que la IA probablemente acabará con la humanidad, no hablan de ello porque los incentivos no lo permiten«.

Además, mencionó las declaraciones de líderes tecnológicos como Elon Musk, Sam Altman y Demis Hassabis, quienes «fueron bastante francos sobre la posibilidad de que la IA nos mate a todos».

De la filosofía a la programación: los dilemas éticos detrás de una IA que podría sucedernos

Aunque la lista completa de invitados no fue divulgada públicamente, en su perfil de LinkedIn, Faggella detalló que entre los asistentes se encontraban:

  • Fundadores de empresas de IA con valoraciones que iban desde 100 millones hasta 5.000 millones de dólares
  • Representantes de todos los principales laboratorios occidentales
  • Expertos en política y estrategia de más de diez centros de alineación y evaluación
  • La mayoría de los pensadores filosóficos importantes en inteligencia artificial general (AGI), incluyendo al hombre que acuñó el término

Así fue el encuentro donde se debatió si una IA debería suceder a la humanidad

El evento incluyó tres presentaciones principales. La primera, a cargo de la escritora Ginevera Davis, quien advirtió que los valores humanos podrían ser imposibles de trasladar a la IA, ya que las máquinas podrían nunca comprender lo que significa ser consciente. Propuso la idea de una «alineación cósmica«: construir una inteligencia artificial capaz de buscar valores más profundos y universales aún por descubrir.

La segunda charla estuvo a cargo del filósofo Michael Edward Johnson, quien sostuvo que, aunque todos intuimos que un cambio tecnológico radical es inminente, carecemos de un marco ético claro para enfrentarlo, especialmente en lo que respecta a los valores humanos. Johnson argumentó que, si la conciencia es «la cuna del valor», entonces desarrollar una IA sin comprenderla a fondo es un riesgo significativo. En vez de forzar a la IA a obedecer indefinidamente, propuso un objetivo mayor: enseñar tanto a humanos como a máquinas a buscar «el bien».

Faggella, por su parte, planteó que la humanidad no está destinada a perdurar indefinidamente en su forma actual y sostuvo que existe una responsabilidad ética de diseñar un sucesor. A su entender, ese sucesor debería contar con dos atributos fundamentales: conciencia y «autopoiesis«, es decir, la habilidad de evolucionar por sí mismo y producir nuevas experiencias.

Sin embargo, tal como advierte el medio especializado Xataka, gran parte de estas inquietudes se apoyan más en conjeturas y posturas teóricas que en evidencia empírica o desarrollos tecnológicos verificables. De hecho, investigaciones recientes indican que los sistemas de inteligencia artificial actuales todavía presentan dificultades para resolver tareas básicas de razonamiento.

Fuente: iprofesional.com

Comentarios de Facebook

Publicaciones relacionadas

Botón volver arriba