Cuando Elon Musk afirmó que “la inteligencia artificial es una de las mayores amenazas a la humanidad”, no lo hizo en forma de provocación, sino de una advertencia que se dedicaba a su propia interpretación del futuro de la tecnología. Como emprendedor que persigue avances en robótica, automatización y software, Musk conoce la enorme potencias de la IA… pero también sus peligros cuando son alejados de la regulación.
- El riesgo de un crecimiento excesivo
Musk lo ha expresado en varias ocasiones: el crecimiento de la IA se produce a una velocidad mayor que la regulación y la evaluación de sus consecuencias por parte del ser humano. Para Musk, el problema no es la IA en tanto que tal, sino el sistema normativo que no es lo suficientemente claro. Si las máquinas alcanzan un nivel de autonomía excesivo, sin supervisión, se podrían ver capaces de tomar decisiones sobre aspectos que dependen de ellos, como la sanidad, las finanzas, la energía o la defensa.
- La posibilidad de la superinteligencia artificial
Uno de los temores de Musk es la posibilidad de la superinteligencia artificial, es decir, una inteligencia del tipo de algoritmo que supera muy ampliamente la inteligencia del ser humano. Dice Musk que los sistemas de IA será capaces de actuar de manera impredecible, priorizando objetivos que no tengan necesariamente espacio en los objetivos del ser humano.
- Efectos sobre el trabajo y las diferencias sociales
Elon Musk ha manifestado que la automatización en rápida evolución puede eliminar millones de puestos de trabajo de sectores enteros.
En este sentido, ha señalado los beneficios de la inteligencia artificial, pero también da cuenta de una advertencia de carácter social: la correspondiente división entre quienes controlan la tecnología y quienes pueden llegar a quedar al lado del camino.
Todo ello podría significar desigualdad, conflictos sociales y dependencia de nuevos tipos de ayuda. - La militarización de la inteligencia artificial
Otro aspecto crucial de la parte de la declaración de Musk es, precisamente, el miedo a que la inteligencia artificial se pueda utilizar en un arma autónoma.
Un sistema capaz de decidir qué atacar sin intervención humana supone un riesgo muy elevado de errores, escaladas irreversibles de conflicto, es decir, de acabar en un círculo del tipo: estoy ante la posibilidad de eliminar la inteligencia artificial, tengo que hacerlo y si no, el resultado podría ser la posible activación de la misma.
Y se ha pedido la regulación internacional que limite las posibilidades que tiene la inteligencia artificial para aplicaciones militares con carácter recurrente. - La falta de regulación o de ética a nivel internacional
Con respecto a la toma de posición de Musk, para él el mayor peligro es que «la inteligencia artificial no sea mala», sino que pueda llegar a ser irresponsable.
Como él mismo ha llegado a referirse en varias ocasiones, lo compara con el hecho «de invocar a un demonio sin saber controlarlo», dado que las grandes empresas y los gobiernos, extremadamente competitivos en este sentido, no se dedican a la idea que podría ser la seguridad o la ética.
Conclusión: Un aviso para hacer, no un miedo por tener.

La frase de Elon Musk no es para generar alarmas, sino conciencias. Quiere que la sociedad, las instituciones y los desarrolladores sean muy conscientes de que la IA es una herramienta muy potente que necesita:
• Regulación.
• Transparencia.
• Supervisión.
• Ética.
• Responsabilidad.
Musk no escepticismo respecto el potencial positivo de la IA; de hecho, participa en empresas que la utilizan. La advertencia que plantea es que sin control, tendrá una repercusión tan grande como impredecible.


