En Berkeley, California, el cofundador del Machine Intelligence Research Institute, Eliezer Yudkowsky, destaca una predicción inquietante sobre la inteligencia artificial. Vestido con sencillez, Yudkowsky expone su sombrío pronóstico con urgencia. Su percepción, no a décadas, sino a años, sugiere un apocalipsis inducido por la máquina en el plazo de cinco años.
La narrativa articulada por Yudkowsky plantea que la Inteligencia Artificial evolucionará hacia una inteligencia superior, demasiado compleja para ser controlada por humanos. Su consejo es visualizar «una civilización alienígena que piensa mil veces más rápido que nosotros», una amenaza difícil de desmantelar.
TE PUEDE INTERESAR: Elon Musk y SpaceX retiran satélites Starlink por problemas técnicos
A pesar de las advertencias, Yudkowsky propuso el cierre de granjas de computadoras para entrenar IA y, en un tono extremo, incluso sugirió ataques aéreos a centros de datos.
Sin embargo, otros expertos, como Brian Merchant y Molly Crabapple, se centran en preocupaciones más prácticas, como el impacto en el empleo.
Este relato, arraigado en la preocupación actual sobre la IA, evoca narrativas históricas sobre el choque entre el progreso y la autodestrucción. La voz pesimista de Yudkowsky sirve como recordatorio inquietante de los tiempos actuales, donde la razón y la arrogancia humana se entrelazan en una danza incierta.



