Iniciamos la segunda semana de enero de 2026 y, casi sin darnos cuenta, hemos cedido las llaves de nuestra percepción a entidades invisibles pero omnipresentes: los algoritmos. Desde la ruta que tomamos para evitar el tráfico hasta la pareja que elegimos en una app, o las noticias que forman nuestra opinión política, el código de programación se ha convertido en el arquitecto de nuestra cotidianidad. Sin embargo, en esta carrera por la eficiencia y la personalización, hemos llegado a un punto de inflexión ético: ¿qué sucede con la condición humana cuando las decisiones fundamentales son delegadas a una máquina?
Para los Millennials y Centennials, que han crecido en una simbiosis casi total con lo digital, el algoritmo no es una herramienta externa, es una extensión del yo. Pero este espejo digital está deformado. En 2026, la urgencia no es prohibir la tecnología, sino dotarla de una brújula moral. La ética no es un freno al progreso, sino la garantía de que el progreso siga siendo humano.
La dictadura de la relevancia: ¿Quién decide qué ves?
El algoritmo de una red social tiene un único objetivo: la retención. Para lograrlo, utiliza un sistema de recompensas de dopamina que nos entrega contenido que confirma nuestros sesgos y exacerba nuestras emociones. Según el informe “Humanidad y Algoritmos 2025” del Center for Humane Technology, el contenido que genera indignación o miedo tiene un 70% más de probabilidades de ser compartido que la información neutral o constructiva.
Esto crea una “cámara de eco” donde la verdad se vuelve secundaria frente a la relevancia algorítmica. Si el código decide que solo veas un lado de la historia, tu libertad de elección es una ilusión. La deshumanización comienza cuando dejamos de ver al “otro” como una persona con dignidad y empezamos a verlo como un punto de datos que el algoritmo ha etiquetado como “enemigo” o “irrelevante”.
El riesgo de la deshumanización programada
El problema ético se profundiza cuando los algoritmos salen del entretenimiento y entran en áreas críticas como la justicia, la salud o el empleo. En 2026, muchas empresas utilizan sistemas de IA para filtrar currículos de forma masiva. Si el algoritmo hereda sesgos históricos —como discriminar por código postal o género—, la injusticia se automatiza y se vuelve invisible.
Desde la perspectiva de la Doctrina Social de la Iglesia (DSI), la técnica es un producto del ingenio humano que debe estar siempre ordenado al Bien Común. El Papa Francisco, en su discurso ante el G7 sobre Inteligencia Artificial, fue enfático: “Ninguna máquina debería elegir jamás si una persona vive o muere, si tiene trabajo o no, o si es culpable o inocente”. La delegación del juicio moral a una función matemática es una renuncia a nuestra propia esencia. La responsabilidad es una cualidad exclusivamente humana; una máquina puede ser precisa, pero no puede ser responsable ni justa.
Los valores mexicanos frente al determinismo digital
México es un país cuya identidad se basa en el encuentro, el matiz y la solidaridad orgánica. El algoritmo, por el contrario, busca la estandarización. Resaltar los valores de los mexicanos implica defender nuestra capacidad de salirnos del guion. La “chispa” de la creatividad nacional y nuestro sentido de comunidad no pueden ser reducidos a una serie de ceros y unos.
El respeto a la legalidad en la era digital también exige nuevas protecciones. En 2026, el derecho a la privacidad y a la transparencia algorítmica es una batalla de derechos humanos. Los ciudadanos tienen derecho a saber por qué una máquina tomó una decisión que les afecta y a exigir que una persona revise ese proceso. El “derecho a la explicación” es el nuevo pilar del Estado de Derecho en el siglo XXI.
Testimonio: Cuando el algoritmo te “borra”
“Perdí mi empleo como repartidor porque la app decidió que mi ruta no era eficiente, sin tomar en cuenta que hubo un accidente y me bajé de la moto para ayudar”, cuenta Pedro, de 26 años. “No hubo a quién explicarle. Para la empresa, yo era una gráfica que bajó de rendimiento. Sentí que no era una persona, sino una pieza de software defectuosa que simplemente fue reemplazada”.
Este testimonio ciudadano ilustra el riesgo del “feudalismo digital”: un sistema donde el trabajador no responde a un jefe, sino a un código opaco. La deshumanización laboral es el síntoma de una sociedad que ha puesto el lucro técnico por encima de la Dignidad del Trabajo.
La propuesta: Algoretics (Ética por diseño)
Para que el 2026 sea el año en que recuperemos el control, es necesario implementar lo que los expertos llaman Algoretics: la integración de principios éticos desde la misma arquitectura del código. No se trata de “parchar” la tecnología después, sino de diseñarla con valores.
* Transparencia de caja negra: Las empresas deben ser obligadas por ley a revelar los criterios básicos que rigen sus algoritmos de recomendación e impacto social.
* Auditabilidad Humana (Human-in-the-loop): Todo proceso automatizado que afecte derechos fundamentales debe tener una supervisión humana obligatoria. La máquina propone, la persona decide.
* Educación en Autonomía Digital: Así como enseñamos a leer, debemos enseñar a las nuevas generaciones a entender cómo funcionan los algoritmos. La alfabetización digital es la defensa más fuerte contra la manipulación.
El corazón es el centro
Al concluir esta serie de artículos en Yo Influyo, volvemos al punto de partida: la persona siempre debe estar en el centro. El algoritmo puede ser un excelente siervo, pero es un tirano nefasto. La tecnología debe ser el lienzo donde proyectamos lo mejor de nuestra humanidad, no la celda donde encarcelamos nuestro criterio.
Agradezcamos la eficiencia del GPS, pero no olvidemos el placer de perdernos y encontrar a un extraño para pedir indicaciones. Celebremos la conectividad, pero no permitamos que un algoritmo dicte a quién debemos amar o por quién debemos rezar. El futuro de México no está escrito en código Python; está escrito en las decisiones libres, valientes y éticas que tomamos cada día en el mundo real.
Porque influir en la era digital no se trata de tener más seguidores, sino de mantener la capacidad de ser profundamente humanos. ¡Toma el control de tu algoritmo!
Fuentes y Referencias:
* Center for Humane Technology. “The Social Dilemma and the Future of Algorithmic Ethics”.
* Pontificia Academia para la Vida. “Rome Call for AI Ethics” (Firmado por Microsoft, IBM y FAO).
* European Commission. “Ethics Guidelines for Trustworthy AI”.
* Compendio de la Doctrina Social de la Iglesia. La técnica y el respeto a la verdad.
* Asociación Mexicana de la Industria de Tecnologías de Información (AMITI). Código de Ética para Desarrolladores de IA 2025.
Facebook: Yo Influyo
comentarios@yoinfluyo.com





