Tras el revuelo mediático organizado tras el lanzamiento de ChatGPT, muchos expertos están hablando de la posibilidad de conseguir desarrollar una Inteligencia Artificial General (AGI) o una superinteligencia artificial (ASI), próximamente.
- La Inteligencia Artificial General (AGI) es una rama de la inteligencia artificial que tiene como objetivo crear máquinas capaces de pensar, razonar y tomar decisiones como lo hace un ser humano. A diferencia de la IA estrecha, que se enfoca en tareas específicas, la AGI busca desarrollar una inteligencia artificial más versátil y adaptable a múltiples situaciones.
- Por otro lado, la superinteligencia artificial (ASI) es un término que se refiere a una forma de inteligencia artificial que supera ampliamente la inteligencia humana, la capacidad intelectual de cualquier ser humano. La ASI es considerada por algunos expertos como un escenario posible pero incierto en el futuro de la IA.
Entre algunos de los ejemplos de argumentaciones recientes realizadas por expertos, podríamos destacar la declaración de Ian Hogarth, personaje conocido en la industria de la IA que, en un ensayo publicado en el Financial Times, afirma que, no sólo llegar a la AGI es posible, sino que «alguien descubrirá cómo sacar la intervención humana del círculo de la ecuación, creando una IA similar a un Dios con un potencial de desarrollo “infinito».
Asimismo, el investigador Eliezer Yudkowsky, considerado uno de los mayores expertos en inteligencia artificial, afirma, en un artículo publicado en la revista Time que, las IA más avanzadas, como las que utilizan el modelo de lenguaje GPT-4, en principio no son autoconscientes (solo llegan a imitar esta condición empleando la información con la que han sido entrenadas), pero que realmente “no lo sabemos con seguridad”. Asimismo, Yudkowsky también comenta que «Si el salto a GPT-5 es tan grande como el de GPT-3 a GPT-4, “ya no podremos decir que probablemente no tienen consciencia. Si dejamos que hagan inteligencias artificiales como GPT-5, diremos que no sabemos, que nadie lo sabe”.
Según las recomendaciones de Yudkowsky, se debe suspender por completo el entrenamiento de inteligencias artificiales en todo el mundo hasta que se alcance un nivel adecuado de seguridad. Además, se propone apagar los centros de computación GPU que actualmente están en uso, así como rastrear la venta de estas unidades para prevenir la construcción de nuevos centros en países determinados. También se sugiere establecer límites en la potencia de cómputo que se utiliza para el entrenamiento de IA, restringiéndolos a campos muy específicos y sin acceso a Internet.
Otro de los expertos en la materia que ha querido dar su opinión sobre la cuestion, es el desarrollador e inversor Siqi Chen, que en una publicación de Twitter ha asegurado que ha recibido un chivatazo que indica que está previsto que el entrenamiento de GPT-5 termine en el mes de diciembre de este año 2023 y que OpenAI espera que se alcance la capacidad de inteligencia artificial general (AGI).
Como hemos visto, son bastantes los expertos que contemplan la posibilidad de alcanzar un grado de desarrollo AGI o ASI proximamente, es decir, una inteligencia que iguale o supere a la inteligencia humana, pero aún tendremos que esperar a ver como evoluciona la cuestión en los próximos meses.