ESTADOS UNIDOS.- Cientos de expertos en tecnología en todo el mundo, entre ellos Elon Muslk, firmaron un llamado a realizar una pausa de seis meses en la investigación sobre inteligencias artificiales más potentes que la actual GPT4, modelo de OpenQI lanzado este mes, ante “grandes riesgos para la humanidad”, publicó reporteindigo.com.
La petición fue publicada en futureoflife.org, en ella piden una moratoria hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras y vigilancia de los sistemas IA.
Asimismo, solicitan que se establezcan técnicas que ayuden a distinguir entre lo real y lo creado artificialmente (como las fotografías del arresto del expresidente estadounidense Donald Trump), así como instituciones capaces de hacer frente a la “dramática perturbación económica y política que causará la IA“.
El documento está firmado por personas que anteriormente ya han expresado sus inquietudes sobre una Inteligencia Artificial incontrolable que supere a los humanos. Entre ellos, precisamente Musk y el historiador Yuval Noah Hariri.
El propio director de OpneAI, recientemente reconoció “tener un poco de miedo”, pero no de su tecnología, sino de que se utilice para “desinformación a gran escala o ciberataques“.
“En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable“, afirman en el documento.
Entre las más de 1.000 personas que firmaron la carta figuran el cofundador de Apple, Steve Wozniak, miembros del laboratorio de AI DeepMind de Google, el director de Stability AI, Emad Mostaque, así como expertos y académicos estadounidenses de IA e ingenieros ejecutivos de Microsoft, empresa aliada de OpenAI. (Fuente: reporteindigo.com)