[ad_1]
Las pruebas internas habían demostrado que la IA ofrecía resultados erróneos, incluso recomendaciones peligrosas. Le falto afinar.
En general, cuanto más sabemos del modo en que funcionan y entrenan las inteligencias artificiales más nos cuestionamos el nombre. Los modelos de lenguaje intentan armar textos lógicos según la información que se les ha suministrado. Utilizan un mecanismo de predicción y no tienen verdadero conocimiento sobre la calidad de lo que escriben.
La aclaración es importante porque más allá de las críticas puntuales, es necesario reconocer los límites de la tecnología. Las IA no son verdaderamente inteligencias.
Ahora hablemos de la IA de Google.
El bardo que debió esperar
Un reporte de Bloomberg basado en la entrevista de unos 18 empleados y ex empleados de Google revela hasta que punto Bard fue lanzada antes de tiempo.
La compañía realizó pruebas internas y le pidió una opinión a los profesionales involucrados. En muchos casos la herramienta recibió malas calificaciones, tales como mentirosa compulsiva o vergonzosa.
Entre los resultados que ofreció había instrucciones para volar un avión que hubieran terminado en un choque y recomendaciones de buceo que habría llevado a la muerte.
A toda marcha de todas maneras
Así pues, en febrero para varios empleados la IA era peor que inutil. Sin embargo, Google ignoró el feedback interno y lanzó Bard en marzo. El evento terminó, como se sabe, con un error relativamente pequeño pero vergonzoso.
El bardo de Google comete un error importante
Lo más preocupante es que durante los últimos años varios profesionales vinculados al departamento de ética e inteligencia artificial de Google han sido despedidos.
OpenAI
ChatGPT también ha demostrado fallos similares, y su desarrollo es cerrado. Más allá de algunas manifestaciones de su CEO, Sam Altman, no tenemos mucha idea de que medidas de seguridad toma OpenAI. Por lo que sabemos, ambas empresas podrían estar manejándose con el mismo nivel de imprudencia.
[ad_2]