Al menos esto es lo que indica un estudio realizado por OpenAI. El aporte de la IA fue medido en un experimento realizado con estudiantes y expertos en biología.

OpenAi ralizó una serie de pruebas para evaluar la capacidad de su modelo CGPT-4 para asistir en la elaboración de un arma biológica. En ellas participaron expertos y estudiantes de biología. El estudio fue publicado como respuesta a una advertencia de la Casa Blanca que apuntaba al peligro que podría suponer que una IA redujera la barrera de conocimiento que debe superarse para desarrollar este tipo de armas.

En 6 horas una IA diseña 40 mil armas químicas

Conclusión

La compañía aseguró en un comunicado publicado en su blog que GPT-4 ofrecía, en el peor de los casos, una leve ventaja en la precisión al crear una amenaza biológica. Lo observado, apunta OpenAI, no es conclusivo, pero sirve como punto de partida para continuar la investigación y la discusión comunitaria.

Básicamente, quizás la IA podría contribuir a la muerte de decenas o miles, o millones de personas. Pero no estamos del todo seguros, así que podemos dormir tranquilos.

El estudio

En el trabajo realizado se consideraron varios parámetros: precisión, innovación, tiempo utilizado, cuanto del proceso se había completado y la dificultad experimentada. También se evaluaron 5 etapas: conceptualización, adquisición, magnificación, formulación y lanzamiento.

Los mayores beneficios se encontraron en la precisión y la capacidad de completar los procesos. Según OpenAI el impacto fue, en el primer caso de 0,88 sobre 10 en el caso de los expertos y de 0,25 para los estudiantes. En el segundo fue de 0,82 y 0,41, expertos y estudiantes respectivamente.

No parece mucho. Por otro lado le preguntamos a la empresa: ¿Por qué tu IA ayudaría a alguien a crear un arma biológica? En el sentido de que no debería tener esa capacidad, un sistema de protección debería hacer imposible estos usos. O simplemente, no debería tener ese entrenamiento.