¿Puede la IA superar al ser humano?

En los últimos años la inteligencia artificial (IA) ha dejado de ser solo promesa futura: se ha transformado en presencia palpable en industrias, servicios médicos, empresas, educación y gobiernos. Para muchos jóvenes –Millennials, Centennials– las interacciones diarias con IA en redes, asistentes virtuales, generación de contenido digital ya son normales. Pero, ¿hasta dónde han llegado en realidad sus capacidades técnicas y qué tan cerca están de igualar o incluso superar al humano en tareas complejas?

En 2025 un conjunto de avances nos obliga a replantear lo que entendemos por “buena IA”: los benchmarks más rígidos muestran mejoras sustanciales, los agentes autónomos empiezan a completar tareas con poco o ningún supervisión humana, y la brecha entre lo que la máquina puede hacer y lo que suponíamos que sólo los humanos podrían está disminuyendo. Al mismo tiempo, aparecen preguntas éticas, laborales, sociales: ¿Dónde están los límites? ¿Cómo preservar la dignidad humana, la verdad, la justicia? ¿Qué papel juega nuestra responsabilidad?

Este reportaje aborda esos avances técnicos con rigor, lo sitúa en contexto histórico, recoge voces afectadas, analiza riesgos y propone reflexiones desde los valores de la doctrina social de la Iglesia: dignidad, bien común, solidaridad, subsidiariedad.

Avances técnicos: benchmarks, rendimiento y convergencia

¿Qué es MMLU y por qué importa?

MMLU (Massive Multitask Language Understanding) es un benchmark que evalúa los modelos de lenguaje grande (LLMs) en tareas diversas: historia, matemática, derecho, ciencias, etc. Su importancia radica en medir no solo si la IA “memorizó” datos, sino si razona sobre diversos ámbitos, lo que antes se consideraba un área esencialmente humana. 

Según el AI Index Report 2025 del Stanford Institute for Human-Centered Artificial Intelligence (HAI), los modelos de IA han incrementado dramáticamente su rendimiento en benchmarks nuevos/exigentes introducidos recientemente: MMMU, GPQA y SWE-bench. En 2024 los modelos subieron 18.8, 48.9 y 67.3 puntos porcentuales, respectivamente, frente a sus valores en 2023. 

Por ejemplo, SWE-bench —que mide programación/codificación automatizada— pasó de resolver sólo ~4.4 % de los problemas en 2023 a ~71.7 % en 2024. 

¿Los modelos están superando al humano?

En condiciones específicas, sí. El informe de Stanford indica que en tareas con tiempo limitado (“time-budgeted tasks”) algunos agentes de IA ya superan al rendimiento humano. Por ejemplo, al resolver tareas de programación bajo presión de tiempo, los agentes pueden entregar resultados más rápidos o más eficientes que los expertos humanos. 

También la diferencia entre modelos “cerrados” y “abiertos” (closed-weight vs open-weight) se ha reducido mucho: los modelos abiertos están casi al nivel de los cerrados en algunos benchmarks. 

Otro dato relevante: los costos de uso y operación de modelos que rindan al nivel de GPT-3.5 han caído enormemente. Por ejemplo, el informe reporta que lo que costaba “consultar” ese nivel de modelo cayó más de 280 veces entre noviembre de 2022 y octubre de 2024. 

Agentes de IA: definición, progreso y límites

Los agentes de IA son programas que no sólo responden a órdenes puntuales, sino que planifican, toman decisiones autónomas, adaptan su comportamiento, y pueden utilizar herramientas externas (otras IA, bases de datos, interfaces) para cumplir una meta global. 

IBM, en un análisis reciente, señala que aunque no todos los agentes actuales son autónomos en todos los sentidos, ya existen los que “analizan datos, predicen tendencias y automatizan flujos de trabajo”. Pero para tareas complejas aún falta evolución en el razonamiento contextual, la gestión de casos extremos (lo que no se ha entrenado con ejemplos similares) y la capacidad de supervisión de errores o desviaciones. 

Revistas académicas mexicanas como Revista IA UAM-A remarca que el desarrollo de agentes autónomos tiene un impacto proyectado de aumento de productividad de hasta un 40 % en ciertos sectores si el trabajador humano delega tareas rutinarias. Pero alertan que el nuevo rol humano no será cero supervisión, sino de agente jefe, que coordina, guía, valida lo que el agente hace. 

Convergencia: IA y rendimiento humano

El informe de Stanford señala que no sólo los benchmarks técnicos muestran mejoras, sino que la diferencia entre los modelos top 1 y top 10 en ciertas mediciones ha disminuido radicalmente. Por ejemplo, en el “Chatbot Arena Leaderboard”, la diferencia entre el primer modelo y el décimo pasó de ~11.9 % a ~5.4 % en 2024. Incluso entre los dos mejores modelos la diferencia apenas es ~0.7 %. 

También los modelos más pequeños están haciendo lo que antes sólo hacían los muy grandes: por ejemplo, un modelo con 3.8 mil millones de parámetros alcanzó porcentajes cercanos al 60 % en MMLU, igual que modelos mucho mayores de años anteriores. Eso lo hace más accesible, más eficiente, con menor huella de energía, menor costo. 

Para aterrizar lo anterior, conversamos con Ana López, desarrolladora de software de Guadalajara, 28 años, quien hace dos años colaboraba con un startup usando IA generativa como ayuda (para contenido, corrección, análisis de datos ligeros). Ahora trabaja con agentes internos para automatizar procesos administrativos y análisis de datos.

“Yo ya no sólo le pido ‘hazme este reporte’, sino que le asigno a un agente que revise automáticamente mis archivos, me alerte si hay inconsistencias, envíe correos, y deje preparado lo que puedo validar yo. Hace seis meses tardaba yo horas; ahora lo hace en minutos. Pero también me preocupa: cuando algo sale mal, ¿quién responde? ¿La empresa? ¿El agente? Me siento como si el crédito vaya todo para la tecnología, pero las culpas también podrían venir sin que nadie lo note.” Este testimonio muestra dos caras: la eficiencia tangible, la mejora operativa; pero también la incertidumbre ética, la responsabilidad, la dignidad del trabajo humano, el riesgo de invisibilizar esfuerzo.

Implicaciones éticas, sociales y laborales

Partiendo de estos avances, es necesario mirar lo que está en juego más allá de lo técnico.

Dignidad humana y trabajo

Según la Doctrina Social de la Iglesia, el trabajo humano tiene dignidad propia, no es sólo instrumentado para eficiencia. El trabajador no debe ser mero medio, sino fin en sí mismo. Si los agentes de IA desplazan tareas humanas sin reconocer ese valor, se corre el riesgo de reducir personas a meros verificadores o supervisores; disminuyendo oportunidades de formación, participación creativa, de crecimiento personal.

En México, donde un porcentaje importante de empleos depende de tareas rutinarias administrativas o de asistencia, la automatización tiene doble filo: puede liberar tiempo para tareas más creativas, sociales, o de servicio; pero también puede generar desempleo o precariedad si no se acompañan de políticas públicas, educación, capacitación.

Verdad, transparencia, sesgos

Los modelos de IA todavía fallan en razonamiento profundo, en coherencia lógica, a veces generan “alucinaciones”, sesgos de género, raza, cultura. Aunque sus respuestas en benchmarks son impresionantes, no siempre representan comprensión, sino correlación estadística. Cuando se utilizan en ámbitos sensibles (justicia, salud, gobierno, decisiones financieras), eso puede tener consecuencias graves y desiguales.

Bien común y gobernanza

El bien común exige que la tecnología beneficie a todos, no sólo a quienes tienen acceso o recursos para pagarla. Los modelos abiertos que se acercan al rendimiento de los cerrados parecen una buena señal: más acceso. Pero también la gobernanza —leyes, regulaciones, estándares éticos— debe acompañar estos avances.

En 2024-2025 se ha visto un aumento en políticas y regulaciones relacionadas con IA en Estados Unidos y en otros países. 

Subsidiariedad

La doctrina social plantea que lo más cercano al ciudadano (familia, comunidad, instituciones locales) debe tener protagonismo. En IA eso significa: los trabajadores, comunidades locales, usuarios finales deben participar en decidir cómo se usan agentes de IA; que no sea sólo una decisión corporativa impuesta, sino un diálogo sobre los fines, uso, límites.

Retos y límites actuales

Aunque los avances son reales y sólidos, no significa que la IA lo haga todo ni pronto. Algunos retos que persisten:

  1. Razonamiento complejo y tareas nuevas
    En benchmarks con tareas lógicas, planeación a largo plazo, razonamiento deductivo o diagnóstico inédito, la IA todavía tiene errores frecuentes. Los modelos pueden fallar estrepitosamente cuando el escenario se aparta de lo ya entrenado. 
  2. Uso de datos y sesgo
    Muchos modelos dependen de enormes corpus de datos públicos que tienen sesgos históricos o culturales. La comprensión profunda de esas limitaciones aún está en desarrollo. También, la transparencia sobre qué datos se usan, quién los recopiló, y bajo qué condiciones legales es variable.
  3. Responsabilidad, errores, fallos
    Cuando un agente actúa mal —por ejemplo, tomando una decisión errónea, enviando información incorrecta, perjudicando a alguien— ¿quién responde? Las empresas, desarrolladores, estados. Pero no hay todavía un marco universal claro.
  4. Brecha de acceso y desigualdad
    No todos tienen las mismas posibilidades de implementar agentes avanzados. En Latinoamérica y en México aún hay limitaciones de infraestructura, de financiamiento, de talento especializado.
  5. Cautela regulatoria
    La legislación va detrás de los avances tecnológicos, lo que puede dejar zonas grises: responsabilidad legal, privacidad, vigilancia, protección de consumidor, derechos digitales.

Con base en lo anterior, la IA en 2025 representa un punto de inflexión: un crecimiento técnico muy fuerte, la convergencia con lo que antes pensábamos reservado a humanos, avances reales en agentes autónomos. Pero no estamos en una era donde todo sea IA perfecta ni donde los humanos sean obsoletos: aún hay fallos, riesgos y necesidad de responsabilidad.

Aquí algunas propuestas concretas, tanto para México como para quienes están desarrollando o usando IA en cualquier parte:

  • Crear marcos legales claros que definan responsabilidad de agentes de IA: quién responde si algo sale mal, quién regula la transparencia, los sesgos, la privacidad.
  • Formación continua para trabajadores: no sólo técnico (cómo usar IA), sino ético, crítico, legal. Potenciar habilidades humanas que aún no se pueden delegar: juicio moral, creatividad, compasión, interacción humana.
  • Políticas de inclusión digital: asegurar que regiones menos favorecidas tengan acceso a infraestructura, conectividad, capacidades de cómputo, para no dejar atrás a comunidades vulnerables.
  • Ética en el diseño de IA: que los agentes sean diseñados con principios de verdad, justicia, equidad; que los desarrolladores consideren los valores humanos desde la concepción, no como complemento.
  • Evaluación continua: usar benchmarks duros y variados, pruebas que midan no solo precisión sino coherencia, razonamiento, contexto, fallos adversos, riesgos; y transparencia en resultados.

La inteligencia artificial en 2025 ya no es solo promesa ni asombro mediático: es una realidad de rendimiento que en muchos casos está convergiendo con lo humano. Benchmarks exigentes como MMMU, GPQA, SWE-bench muestran saltos enormes. Agentes de IA empiezan a superar humanos en tareas concretas. Pero ese poder técnico exige responsabilidad moral.

La dignidad humana, el bien común, la solidaridad, la subsidiariedad no son accesorios: deben estar en el centro del desarrollo de esta tecnología. La IA debe ser instrumento para servir al ser humano, no para reemplazarlo ni para invisibilizarlo.

Para los jóvenes, esto significa prepararse: no como espectadores, sino como actores críticos que exijan transparencia, justicia, participación. Como ciudadanos, usuarios, consumidores, desarrolladores. Porque la IA, como toda herramienta poderosa, ofrece oportunidades reales —pero también riesgos concretos. Y será nuestra responsabilidad colectiva asegurarnos de que estas tecnologías promuevan el florecimiento humano, y no lo apaguen.

@yoinfluyo

Facebook: Yo Influyo
comentarios@yoinfluyo.com

Compartir

Lo más visto

También te puede interesar

No hemos podido validar su suscripción.
Se ha realizado su suscripción.

Newsletter

Suscríbase a nuestra newsletter para recibir nuestras novedades.