[ad_1]


Una carta abierta del Future of Life Institute señala que los laboratorios que trabajan en esta tecnología no la comprenden ni pueden controlarla. Deben tomarse un tiempo para establecer protocolos comunes de seguridad.

El Future of Life Institute ha publicado una carta abierta en el que le pide a todos los laboratorios que trabajan en el desarrollo de inteligencia artificial pausar el entrenamiento de sus modelos. En particular, la carta se refiere a aquellas IA que sean más potentes que la GPT-4.

Fuera de control

En el texto se advierte que la implementación de la inteligencia artificial tendrá un profundo impacto en la vida en el planeta. Por lo tanto debería ser planeada y manejada con cuidado. Sin embargo esto no es lo que está ocurriendo.

Los laboratorios de IA están enfrascados en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie puede entender, predecir o controlar.

Algunos temores sobre las IA

En la carta se establecen algunas problemáticas puntuales:

¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedades?

¿Es lógico automatizar todos los trabajos, aún los que dan sentido a nuestras vidas?

¿Deberíamos desarrollar mentes que nos superen en número, sean eventualmente más listas y nos hagan obsoletos?

Se afirma además que estas decisiones no deberían estar a cargo de los líderes de la industria tecnológica. Las IA más poderosas solo deberían desarrollarse una vez que estemos seguros de que tendrán un efecto positivo y podemos controlarlas.

La propuesta

El Instituto señala que la pausa en el desarrollo debería ser verificable. E incluir a todos los actores claves de la industria. Si esto no fuera posible el gobierno debería intervenir.

Durante la pausa los laboratorios y expertos independientes deberían desarrollar e implementar protocolos de seguridad avanzados para el diseño y desarrollo de las IA.

También se señala la necesidad de enfocar más recursos en hacer que los sistemas sean más acertados, seguros, entendibles, sólidos, confiables y transparentes.

Musk, Wozniak y otros

El documento fue firmado por varias figuras notables del universo de la tecnología. Entre ellas aparecen Elon Musk y Steve Wozniak. También se pueden encontrar varios ejecutivos y emprendedores de peso, tales como Emad Mostaque (CEO de Stability AI), Evan Sharp (co fundador de Pinterest) y Connor Leahy (CEO de Conjeture). Así como también un buen número de académicos.

Es importante notar que muchos de los firmantes son miembros del Future of Life Institute. Lógicamente muchos de ellos han sido los primeros en dar respaldo a la petición. El instituto tiene como misión orientar los desarrollos tecnológicos para el beneficio de la humanidad.

[ad_2]