La IA ofrece por ahora más promesas que resultados

Gran repercusión tuvo el reciente caso de Air Canada, que fue condenada a indemnizar a un pasajero después de que su chatbot le diera información falsa sobre una tarifa. La empresa intentó argumentar que el bot era “una entidad independiente”, pero el tribunal no lo aceptó: si está en la página oficial, la responsabilidad es de la empresa. El episodio reveló un problema trascendente: el entusiasmo por la inteligencia artificial suele chocar con la realidad cuando se la expone al público.
Esa distancia entre promesa y práctica es cada vez más visible. Según un estudio del Massachusetts InstituteofTechnology (MIT), el 95% de los proyectos de inteligencia artificial generativa en empresas no tiene impacto medible en los resultados financieros. En otras palabras, el entusiasmo crece más rápido que los resultados.
Las causas son conocidas, aunque se repiten con obstinación. Primero, la desconexión con la realidad cotidiana. Muchas empresas implementan sistemas que lucen impresionantes en demostraciones internas, pero que se desmoronan en la práctica. El caso de Air Canada lo resume bien: un chatbot eficiente en la presentación, desorientado frente a una pregunta real.
Esto no les gusta a los autoritarios
El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.
Los riesgos de la IA: 4 preguntas imprescindibles para un uso responsable
Segundo, los sesgos en los datos. Amazon canceló su sistema de selección automática de personal cuando descubrió que discriminaba a las mujeres. El modelo había aprendido de historiales antiguos y replicó sus prejuicios. La tecnología, lejos de corregir los errores humanos, los amplificó.
Tercero, la ilusión de precisión. La redacción digital CNET publicó decenas de notas escritas con IA y más de la mitad tuvo que ser corregida por errores. La IA no miente con mala intención: simplemente no entiende lo que dice.
Cuarto, las predicciones fallidas. La plataforma inmobiliaria Zillow cerró su negocio de compraventa de casas después de perder millones de dólares. Su modelo de precios, que debía anticipar el valor de mercado, se mostró incapaz de leer las dinámicas reales de la vivienda en los Estados Unidos.
Por último, la falta de preparación institucional. En muchos casos, las empresas instalan sistemas sin prever mecanismos de supervisión, de corrección o de salida. Cuando algo falla, no hay protocolo. El problema no es la inteligencia artificial, sino el vacío alrededor.
El escenario para los próximos años combina regulación, realismo y una cierta madurez tecnológica. En Europa, el Acta de Inteligencia Artificial entrará plenamente en vigor entre el corriente año y 2027. Exigirá que las empresas documenten sus modelos, evalúen riesgos y mantengan trazabilidad sobre los datos utilizados. Será un golpe de realidad: el cumplimiento costará tiempo y dinero, pero reducirá los daños reputacionales y legales.
Al mismo tiempo, los expertos prevén un cambio de foco. La IA dejará de venderse como varita mágica y se concentrará en tareas discretas: resumir textos, clasificar correos, mejorar la atención al cliente. Los grandes discursos darán paso a los pequeños logros.
Y es probable que el entusiasmo se estabilice. Tras los primeros años de euforia -y errores costosos-, el mercado empieza a exigir evidencia. La consultora EY estimó que los tropiezos en proyectos de IA ya les costaron a las grandes compañías más de US$ 4.400 millones en pérdidas operativas y sanciones.
La IA se quedará, pero convivir con ella exige prudencia. Primero, pedir pruebas, no promesas. Si alguien afirma que la IA mejorará algo, hay que preguntar: cuánto, cómo se medirá y en qué plazo.
Segundo, verificar siempre. Cuando un chatbot ofrece información sensible -precios, políticas, salud- conviene confirmar con una fuente oficial.
Tercero, no entregar datos sin pensar. Documentos personales, información médica o financiera no deberían compartirse con herramientas cuyo uso y almacenamiento no son transparentes.
Cuarto, aceptar el margen de error. Los sistemas aprenden, pero también se equivocan. Por eso, necesitan acompañamiento humano, no reemplazo.
La inteligencia artificial no crea problemas nuevos: acelera los que ya existen.Si una organización es desordenada, la IA multiplicará ese desorden.Si tiene objetivos claros, transparencia y control, puede convertir la información en valor.
El famoso “95% de fracasos” no es una sentencia definitiva. Es un recordatorio de que la tecnología más avanzada sigue dependiendo de lo más antiguo: el juicio humano.
