Observatorio de Inteligencia Artificial Universidad Católica de Cuyo

Para Albert Einstein, el mundo no es una suma de hechos que pasan porque sí. Aunque sabía que hay cosas imprevisibles y que no todo se puede calcular, no creía que la realidad fuera un desorden total. Incluso en situaciones muy complejas, pensaba que debía existir algún tipo de orden que nos ayudara a entender cómo funciona el mundo. El azar puede influir, pero no alcanza para explicar todo lo que ocurre.

Décadas después, este debate reaparece bajo una nueva forma: la Inteligencia Artificial. Los sistemas actuales —en especial los basados en aprendizaje automático— funcionan calculando probabilidades. No piensan ni entienden como una persona. Analizan grandes cantidades de datos, reconocen patrones y producen la respuesta que estadísticamente parece más probable. Cada resultado es una estimación, no un juicio; un cálculo, no una decisión moral.

Este detalle técnico se vuelve relevante cuando la Inteligencia Artificial empieza a intervenir en aspectos sensibles de la vida cotidiana. Hoy se la utiliza en evaluaciones educativas, procesos de selección laboral, otorgamiento de créditos, diagnósticos médicos y sistemas de seguridad. En estos casos, el problema no es la tecnología en sí, sino la tendencia a aceptar sus resultados sin cuestionarlos. Cuando una decisión es injusta o equivocada, aparece una frase inquietante: “lo decidió el algoritmo”. Así, el cálculo estadístico empieza a servir como excusa para no hacerse cargo.

La Inteligencia Artificial no elimina la decisión humana: la desplaza a etapas menos visibles del proceso.

Sin embargo, ningún algoritmo decide solo. Detrás de cada sistema hay personas e instituciones que eligen qué datos usar, qué criterios aplicar, qué errores tolerar y en qué contextos autorizar su uso. La Inteligencia Artificial no elimina la decisión humana: la desplaza a etapas menos visibles del proceso. Por eso, toda decisión automatizada sigue siendo, en el fondo, una decisión humana apoyada en tecnología.

El problema central, entonces, no es que la Inteligencia Artificial trabaje con probabilidades, sino que dejemos de ejercer el juicio. La tecnología puede ayudar a ordenar información, acelerar procesos o detectar patrones, pero no puede reemplazar la evaluación crítica ni asumir responsabilidades. Cuando se la presenta como neutral, objetiva o infalible, se corre el riesgo de confiarle más de lo que puede ofrecer. Y esa confianza excesiva suele debilitar los controles y la rendición de cuentas.

En este punto, la reflexión de Einstein sigue siendo actual. Su crítica al azar como explicación total no negaba la complejidad del mundo, sino que advertía sobre un límite: comprender no es solo calcular. Hoy, frente a sistemas capaces de producir resultados cada vez más sofisticados, la pregunta clave no es tecnológica, sino práctica: ¿quién define los criterios, revisa los resultados y se hace responsable cuando una decisión afecta al bien común?

La Inteligencia Artificial puede calcular probabilidades; las decisiones, en cambio, siguen siendo humanas. Reconocer esta diferencia no frena el avance tecnológico, sino que lo vuelve más cuidadoso y responsable. El verdadero desafío no es elegir entre humanos o algoritmos, sino evitar que el cálculo reemplace al juicio allí donde decidir implica hacerse cargo de las consecuencias. Porque esas decisiones no solo afectan trayectorias individuales, sino también moldean la sociedad que construimos y la casa común en la que vivimos.