Cuando la IA falla ¿quién falla?
Frente a la consulta de un aprendiz de cocinero de cómo evitar que el queso se deslice de la pizza, un chatbot con inteligencia artificial (IA) le sugirió que añadiera cola blanca de pegar para adherencia de los ingredientes.
¡Ni pensarlo!, menos intentarlo, verdad.
Más que una simple anécdota, este caso evidencia lo descabelladas que pueden ser algunas respuestas de estas aplicaciones cuando se formulan preguntas raras, ambiguas o fuera de contexto.
Lo risible de la situación pone de relieve tres factores clave para atender el uso responsable de la IA. En sencillo: quién consulta, cómo pregunta y para qué usa la respuesta. Y, claro, todo a partir de la premisa de que esta es una de las herramientas de tecnología de punta más innovadoras en lo que va del siglo, sobre la que vamos en procesos desiguales de aprendizaje, con la formidable incógnita de no saber dónde llegaremos con el invento y sus derivados.
Saber quién consulta, es enterarse de si el profesor pregunta sobre educación o un transportista sobre el estado del tiempo en carretera. Ni más ni menos. Conocimientos básicos y necesarios del usuario. Sobre cómo preguntar, tener presente que la calidad del resultado depende directamente de la claridad y precisión de la instrucción o “prompt”. Un texto pobre genera una respuesta pobre. Y, para qué usar la respuesta, es una cuestión ética. No basta con obtener información; se debe comprender, contextualizar, citar correctamente las fuentes y, sobre todo, utilizarla bien.
Los modelos de IA no son infalibles —ChatGPT, Gemini u otros—, pueden generar textos, imágenes o gráficos de manera rápida y convincente, pero eso no significa que todo lo que dicen sea verdadero. Las llamadas “alucinaciones” de la IA —cuando entrega datos inventados pero verosímiles— siguen siendo una realidad. El caso de la pizza es un ejemplo. Otro, cuando se respondió que en Chile existían dos poetas mujeres distintas: Gabriela Mistral y Lucila Godoy Alcayaga, desconociendo que se trata de la misma persona. ¿Falla técnica? O ¿será que los algoritmos se embalan como adolescente en fiesta?
Estos errores pueden ser inofensivos para quien tiene conocimientos, pero no para menores o quien toma decisiones con estos datos. Y si la IA se utiliza en ámbitos sensibles como ciencia, defensa o decisiones de negocios, un error no es solo anecdótico: puede ser costoso o incluso trágico.
Con todo, el cuidado y la idea de control humano en estos sistemas digitales no siempre es atendido con la rigurosidad que los riesgos reales y potenciales anuncian. Peor si ello ocurre en entidades de “fe pública”, como son las firmas de auditoría y consultoría, donde la función de evaluación y control son inherentes a sus fines de servicios profesionales.
A fines de octubre, se conoció un caso que encendió alertas. Deloitte Australia entregó un informe de 237 páginas al gobierno de ese país, elaborado con herramientas de IA generativa (Azure OpenAI GPT-4o). El documento contenía referencias inexistentes, citas académicas falsas e incluso jurisprudencia inventada. La consultora debió reconocer el uso de IA, tuvo que devolver parte del pago del contrato y rehacer el informe.
¿Falló la inteligencia artificial? No. Falló el juicio humano, el control profesional y la ética en el uso de la tecnología. Se omitió, según información de prensa y redes sociales (Internet 2025), la revisión rigurosa que exigen los estándares de auditoría y se confió ciegamente en una herramienta que, para el caso, requiere supervisión experta.
Al final, la pregunta ya no es si la inteligencia artificial puede fallar, sino qué tan preparados estamos nosotros para enfrentar sus errores. La IA no tiene responsabilidad legal ni ética; quienes la desarrollan y usan, sí. No es la tecnología la que miente, inventa o engaña al usuario —salvo un diseñador que mal programó o un hacker mala tela que metió la mano—. Somos nosotros quienes decidimos o erramos al confiar sin verificar.
Por eso, hasta donde vamos con estas aplicaciones de punta, la responsabilidad sigue siendo humana, así como el criterio profesional, la ética y el control siguen siendo irremplazable. Un balance financiero, un informe de auditoría o una decisión empresarial o gubernamental no puede recaer solo en algoritmos.
¡Cuidado!, entonces, en los próximos balances de fin de año: más peligroso que una “IA que se equivoca”, es un profesional que la usa sin supervisión o una autoridad que no verifica los resultados que obtiene y emplea.



