El uso fallido de la IA: desinformación técnica masiva, irresponsabilidad y negligencia de profesionales
Nuestro columnista Néstor Vidal realiza una advertencia sobre el uso creciente de la IA a ciegas, en especial en profesiones técnicas. Falsas verdades y mentiras para llenar huecos, peligros que llevan a errores catastróficos.
Por Néstor Vidal (*)
En la carrera por la eficiencia tecnológica, la población ha comenzado a normalizar el uso de la inteligencia artificial (IA) en niveles de decisión críticos. Sin embargo, lo que se presenta como una herramienta de precisión matemática es, en realidad, un sistema que carece de conciencia. El perito investigador forense Néstor Vidal ha lanzado una advertencia urgente desde Bariloche: la confianza ciega en la IA, sin una validación humana experta, está generando «errores garrafales» que ponen en riesgo la seguridad, la salud y el patrimonio.
Que es la IA
En pocas palabras, la Inteligencia Artificial (IA) es un modelo matemático de predicción.
No es una mente con conciencia ni un oráculo que conoce la verdad; es un software que utiliza estadísticas avanzadas para reconocer patrones en volúmenes masivos de datos.
¿Cómo funciona científicamente?
Su proceso se basa en la probabilidad estadística. Cuando le haces una pregunta, la IA no «piensa» la respuesta, sino que calcula matemáticamente qué palabras o datos tienen más probabilidades de aparecer juntos, basándose en la información con la que fue entrenada.
La anatomía del error: por qué la IA “miente”
Para comprender el peligro, es imperativo desmitificar el funcionamiento de los modelos de lenguaje (LLM). La IA no consulta una base de datos de verdades comprobadas; opera mediante un cálculo de probabilidad estadística. Su única función es predecir la secuencia de palabras que «suena» más coherente.
Matemáticamente, esto se traduce en cuando el sistema carece de información real, no se detiene a investigar; simplemente rellena el vacío con una «alucinación». El resultado es un texto gramaticalmente perfecto, pero científicamente falso, que muchos profesionales están aceptando como una verdad absoluta.
Profesiones en riesgo: el costo de la no verificación
La falta de auditoría humana está provocando fallos documentados en áreas donde el margen de error debe ser cero:
- Medicina y Diagnósticos: Se han reportado casos donde médicos utilizan la IA para interpretar síntomas complejos. El riesgo es letal: la IA puede omitir patologías raras o sugerir tratamientos basados en correlaciones estadísticas absurdas que no consideran la bioquímica real del paciente. Un diagnóstico «alucinado» puede significar la administración de fármacos contraindicados.
- Arquitectura e Ingeniería Estructural: arquitectos que delegan cálculos de cargas o resistencia de materiales a herramientas de diseño generativo corren el riesgo de ignorar variables críticas de terreno y clima, especialmente en la región. Un error en el cálculo de la fatiga de un material o en la distribución de tensiones puede derivar en el colapso de estructuras bajo condiciones de nieve o viento extremo.
- Derecho y Justicia: El ámbito legal ya registra casos de abogados que presentaron escritos judiciales con citas de jurisprudencia inexistente, inventada íntegramente por la IA. Esto no sólo constituye una falta ética grave, sino que vicia de nulidad cualquier proceso judicial.
- Investigación forense y accidentología: en la reconstrucción de un siniestro vial, confiar en una tabla de coeficientes de fricción o en una simulación de impacto generada por IA sin contrastarla con la evidencia física del asfalto es una negligencia que anula la validez del peritaje.
- La IA carece del juicio para entender la dinámica de fluidos y el movimiento del calor. Este columnista ha descubierto errores en patrones sobre el comportamiento de un acelerante específico en una mezcla de materiales complejos, la IA puede inventar valores de Tasa de Liberación de Calor (HRR) que suenan técnicos, pero son físicamente imposibles.
- Errores en la medición de datos de satélites, también se producen errores en los datos de los paquetes de información satelital. La IA puede subestimar la velocidad de propagación de un incendio de «Sexta Generación», llevando a conclusiones erróneas sobre el tiempo de ignición y su avance.
La trampa de la responsabilidad
Hay un grave vacío legal que rodea a esta tecnología. Una inteligencia artificial no tiene personería jurídica, no tiene ética y no puede ser imputada.
La validación es indelegable: cuando un profesional firma un diagnóstico, un plano o un peritaje, está asumiendo la responsabilidad civil y penal de cada dato contenido en ese documento. Alegar que «la IA lo dijo» no constituye una defensa válida ante una negligencia profesional.
Conclusión: el regreso al rigor científico
La IA debe ser tratada como un borrador de baja fidelidad, un asistente que requiere supervisión constante. Advertencia: en un mundo que corre hacia la automatización, el juicio crítico del experto humano es la única barrera que nos separa de la desinformación técnica masiva.
La población y los profesionales deben recordar que la rapidez no es sinónimo de precisión. En ciencia y tecnología, el único dato válido es aquel que ha sido verificado, contrastado y firmado por un ser humano responsable.
(*) Néstor Vidal profesional investigador forense integrante de CIFTT (Centro de Investigación Forense y Tecnología del Tránsito) y miembro suscripto al programa del Instituto Nacional de Justicia (NIJ) de la Agencia de Investigación Científica Forense, Evaluación y Tecnología del Departamento de Justicia de los Estados Unidos (999-N. Capitol St., NE, Washington, DC 20531). Aprendiz Ad Honorem en Nuevas Tecnologías (Toyota Industries / Nippon Life).
(Económicas Bariloche)
