El dilema ético entre lucro, poder estatal y bien común

En los últimos años, la carrera por dominar la inteligencia artificial (IA) no sólo se ha convertido en una competencia tecnológica, sino en un terreno cargado de tensiones geopolíticas, dilemas éticos y desafíos económicos. A medida que empresas y países se esfuerzan por sacar ventaja, surgen tres fenómenos clave que reconfiguran ese escenario: la competencia creciente entre grandes corporaciones, la proliferación de modelos de IA de código abierto, y el ascenso acelerado de China como actor dominante en este espacio. Estas tendencias tienen el potencial tanto de generar prosperidad como de acentuar desigualdades, erosionar derechos o concentrar poder. En este reportaje analizamos en profundidad cómo estas fuerzas interactúan, cuáles son sus implicaciones éticas desde la perspectiva de la Doctrina Social de la Iglesia (DSI), y qué voces y propuestas emergen para orientar este desarrollo hacia el bien común.

Panorama actual: competencia y apertura tecnológica

Competencia global al rojo vivo

Grandes compañías como OpenAI, Google, Meta, Anthropic y xAI están inmersas en una competencia constante por lanzar modelos más potentes, multimodales (que manejan texto, imagen, audio, video) y eficientes. En ese contexto, el lanzamiento continuo de versiones nuevas y más capaces se ha vuelto norma. La innovación no sólo se mide en precisión, sino también en rapidez, costo de entrenamiento, consumo energético, escala de despliegue, etc.

Según un análisis reciente, la compañía china DeepSeek lanzó un modelo potente (DeepSeek-R1) que, con menor presupuesto y requisitos computacionales, logra desempeños comparables a modelos más costosos de Occidente. 

El auge del código abierto

Los modelos de IA de código abierto (open source) están ganando terreno. La razón es doble: por un lado, reducen barreras de entrada para desarrolladores, universidades, empresas pequeñas; por otro lado, fomentan transparencia y posibilidad de auditoría, lo que es clave para confiar en decisiones automatizadas. Modelos como los de DeepSeek o los ya anunciados por OpenAI bajo licencias abiertas han logrado cerrar la brecha en ciertos benchmarks de rendimiento. 

El código abierto también representa un reto al modelo tradicional de monetización, basado en licencias cerradas, suscripciones costosas o acceso exclusivo. Si los modelos libres comienzan a igualar funcionalidad y calidad, el valor monetizable se reconfigura profundamente.

El ascenso de China y su rol estratégico

China ya no es simplemente un imitador tecnológico: es un líder en muchas áreas concretas de la IA. La inversión pública y privada, la coordinación estatal, y la orientación estratégica se han vuelto poderosas palancas de desarrollo. 

DeepSeek, Qwen y otros ejemplos concretos

  • DeepSeek-R1: modelo de lenguaje abierto chino entrenado con costos mucho menores (se reporta que con ~6 millones de dólares frente a decenas o centenas de millones en EE.UU.), que además exige menor infraestructura para desplegarlo. 
  • Alibaba Qwen3: recientemente presentado, busca competir directamente con esos modelos abiertos, y lo hace optimizando estructura, costos y escalabilidad. 

China también ha impuesto reglas regulatorias que exigen que los modelos de IA generativa respeten los “valores socialistas”, control administrativo del contenido, y restricciones estatales para proteger la unidad territorial o enfrentar lo que define como amenazas a la seguridad nacional. 

Así, China combina avance tecnológico, apertura limitada (cuando conviene), regulaciones estrictas y una visión estratégica de largo plazo.

Tensiones éticas y amenazas a la monetización

Mientras estas fuerzas emergen, surgen múltiples amenazas tanto para quienes buscan monetizar la IA como para el tejido social.

Amenazas para modelos de monetización tradicionales

  • Los modelos de código abierto presionan los precios hacia abajo y reducen el margen de exclusividad. Si un desarrollador puede usar ya modelos abiertos robustos, las barreras para competir disminuyen.
  • La dependencia de infraestructura costosa (servidores, GPUs, acceso a datos de calidad) sigue siendo un factor limitante, pero ciertos avances (como modelos más eficientes o cuantizados) están reduciendo esos costos. 
  • Las regulaciones tanto en China como en Occidente podrían dificultar monetización basada en privacidad de datos, o imponer obligaciones de transparencia o equidad que aumenten costos de cumplimiento.

Riesgos sociales, morales y legales

Desde la perspectiva ética y social, algunas de las amenazas más serias incluyen:

  • Desigualdad en acceso: aunque el código abierto ayuda, la infraestructura para entrenar modelos, así como los recursos técnicos, siguen siendo caros. Muchas comunidades, especialmente en países en desarrollo, podrían quedar rezagadas.
  • Concentración del poder: los grandes actores, tanto corporativos como estatales, pueden acumular ventaja no sólo por capacidad técnica, sino por influencia regulatoria, control de datos, patentes, y capital.
  • Estado vs libertad individual: en contextos como el chino, reglas estrictas sobre qué contenido puede generarse, vigilancia o censura podrían usarse para moldear opiniones, controlar discursos o restringir el pensamiento. Esto plantea tensiones fuertes con libertades fundamentales.
  • Deshumanización o instrumentalización: si la IA se ve solo como un activo económico, se corre el riesgo de que la dignidad de la persona humana se subordine a la eficiencia, al beneficio o al poder. Aquí entran en juego los principios de la Doctrina Social de la Iglesia: dignidad, prioridad de la persona, bien común, subsidiariedad, solidaridad. 

Principios clave

  • Dignidad de la persona humana: toda tecnología, incluyendo la IA, debe servir a la persona, no substituirla ni degradar su valor intrínseco. La DSI plantea que ante nuevos desarrollos técnicos, es necesario juzgar su uso no solo por lo que permite hacer (“cómo”), sino por el “para qué” último. 
  • Bien común: la comunidad entera, la sociedad, ha de beneficiarse. No basta con que unos pocos lucren; hay que pensar en la equidad, en compartir beneficios, en acceso justo. 
  • Solidaridad y subsidiariedad: promover que comunidades locales, desarrolladores pequeños, regiones menos favorecidas participen y no sean meramente receptoras o espectadoras. También significa que las decisiones se tomen lo más cerca posible de las personas afectadas. 
  • Ética en la verdad, justicia y transparencia: uso responsable de datos, respeto a la privacidad, veracidad en la comunicación pública de lo que la IA hace o promete. Evitar engaños, manipulaciones, sesgos. 

La  tecnología es una actividad humana creativa que puede y debe valorarse positivamente, pero también que tiene límites y debe estar orientada al bien del hombre y de la comunidad. No puede desligarse del “para qué” y del “quién”. 

Para aterrizar cómo estas tensiones impactan en la vida real, conversé con Ana María Orozco, ingeniera de software originaria de Oaxaca que trabaja con IA en una startup latinoamericana: “Veo modelos muy poderosos que salen del otro lado del mundo, de compañías enormes, que prometen capacidades maravillosas. Pero aquí, aunque los usemos, apenas podemos pagar la infraestructura, el acceso a GPUs potentes, o incluso los cursos que enseñan lo más actualizado. A veces siento que somos consumidores pasivos, no participantes. Me preocupa que en esta carrera se nos deje de lado, como si solo importara quién pueda comprar más hardware — pero olvidemos que la creatividad, la cultura y los problemas locales también cuentan”.

Su testimonio refleja la brecha que existe entre quienes desarrollan IA en contextos con recursos y quienes no, y cómo eso puede afectar no solo las oportunidades económicas, sino también la posibilidad de que la IA responda a los valores, necesidades y dignidad de comunidades diversas.

Posibles propuestas y caminos de salida

A la luz de lo anterior, y guiados por los principios de la DSI, surgen algunas propuestas para encauzar el desarrollo de la IA hacia un rumbo más justo, humano y sostenible:

  1. Políticas públicas orientadas al bien común
    Gobiernos deben regular no solo con miras a incentivar la innovación, sino asegurando que los beneficios lleguen a la población: acceso justo, protección de derechos digitales, participación de comunidades en decisiones.
  2. Apoyar la IA abierta con responsabilidad
    Fomentar modelos de código abierto, pero acompañados de estándares de transparencia, auditoría y ética. Premio o incentivos fiscales para proyectos que cumplan esos estándares.
  3. Infraestructura accesible y cooperativa
    Crear consorcios públicos-privados, académicos, sociales para compartir recursos (centros de computación, datasets limpios, espacios de formación), de modo que desarrolladores locales no queden excluidos.
  4. Educación ética y tecnológica
    Desde las universidades hasta la educación media, se necesita formar no sólo ingenieros, sino ciudadanos críticos, con sentido ético, capaces de comprender qué implicaciones tiene la IA más allá del uso práctico.
  5. Discernimiento comunitario inspirado en valores cristianos
    La DSI sugiere que comunidades e iglesias pueden jugar papel activo: diálogo, reflexión, denuncia cuando la tecnología se utilice para abuso, y anuncio de caminos que prioricen la dignidad humana.

La inteligencia artificial está en un momento de inflexión: la competencia se ha vuelto feroz, los modelos de código abierto están reconfigurando quién puede participar y China se alza como un actor que combina tecnología, escala y estrategia estatal. Todo esto ofrece oportunidades enormes — más innovación, más acceso potencial, nuevas aplicaciones para resolver grandes problemas — pero también riesgos reales: desigualdad, concentración de poder, falta de transparencia, amenazas a libertades fundamentales.

Se vuelve imperativo no perder de vista a la persona, asegurar que la tecnología sirva al bien común, que haya solidaridad entre quienes tienen mucho y quienes tienen poco, y que todas las innovaciones se realicen en un marco ético, con justicia, verdad y respeto a la dignidad.

Si no atendemos estos desafíos, corremos el riesgo de que la IA se convierta en un instrumento de dominación más que en una herramienta de liberación. Las propuestas existen: regulación inteligente, apertura responsable, cooperación internacional y compromiso ciudadano. Pero requieren voluntad política, conciencia social y compromiso ético auténtico.

 

@yoinfluyo

Facebook: Yo Influyo

comentarios@yoinfluyo.com 

Compartir

Lo más visto

También te puede interesar

No hemos podido validar su suscripción.
Se ha realizado su suscripción.

Newsletter

Suscríbase a nuestra newsletter para recibir nuestras novedades.