a woman wearing a denim vest with a human rights message on it

Resumen y Transcripción del Episodio 44 de Digital Humanity

DGHD -- E44T3 -- La ética de la inteligencia artificial

NOTAS DEL PROGRAMATRANSCRIPCIÓN DEL PROGRAMADGHD

Rodrigo Bernardino y Balam Mendoza

5/6/20257 min read

RESUMEN

En este episodio se discute la ética en los algoritmos de inteligencia artificial, explorando su evolución, los sesgos presentes en los sistemas, y la necesidad de auditorías y regulaciones. Se abordan los impactos sociales de los algoritmos, la falta de transparencia y la problemática de la privacidad en la era digital. Los anfitriones proponen soluciones y reflexionan sobre la responsabilidad de las empresas y la concientización del usuario. En esta conversación se abordan temas cruciales sobre la geopolítica, la información biométrica, la educación en inteligencia artificial, la ética en el desarrollo de tecnologías y la narrativa de la libertad en el uso de algoritmos. Se discuten los riesgos asociados con la recopilación de datos biométricos, la necesidad de una educación integral en IA que incluya aspectos éticos, y cómo los algoritmos pueden perpetuar desigualdades sociales. Además, se reflexiona sobre el futuro de la privacidad en un mundo cada vez más tecnológico y controlado.

CAPÍTULOS

00:00 Introducción a la Ética en la Inteligencia Artificial
02:12 Evolución de la Ética en Algoritmos
04:44 Sesgos en Algoritmos y su Impacto Social
07:33 Propuestas para la Auditoría de Algoritmos
10:55 Transparencia y Comprensibilidad en Algoritmos
12:39 Impacto Social de los Algoritmos
15:27 Caja Negra y Sesgos en la IA
17:05 Desafíos en el Reclutamiento Automatizado
19:01 Regulación y Ética en la IA
20:57 Concientización del Usuario sobre la IA
21:39 Privacidad y Personalización en la Era Digital
24:01 La Guerra Geopolítica y la Información Biométrica
29:40 Educación y Capacitación en Inteligencia Artificial
31:54 Ética y Responsabilidad en el Desarrollo de IA
36:31 La Narrativa de la Libertad y el Algoritmo
43:59 El Futuro de la Privacidad y la Tecnología
48:00 Digital Humanity Outro.mp3

TRANSCRIPCIÓN

Fecha: Mayo 6, 2025
Anfitriones: Balam Mendoza y Rodrigo Bernardino

¡Bienvenidos a un nuevo episodio de Digital Humanity! Balam Mendoza y Rodrigo Bernardino te invitan a un viaje crítico por el mundo de la inteligencia artificial y sus dilemas éticos. Desde sesgos algorítmicos que refuerzan desigualdades hasta la caja negra de la IA que nadie entiende, este episodio desentraña cómo los datos y los algoritmos moldean nuestras vidas. Transmitido en vivo los martes a las 9:00 p.m., con un podcast editado y subtitulado para una experiencia dinámica, ¡sumérgete en esta reflexión sobre el futuro de la humanidad digital!

Ética en Algoritmos: Un Debate Urgente

Balam Mendoza (00:29):
Buenas noches, bienvenidos a Digital Humanity. Soy Balam Mendoza.

Rodrigo (00:38):
¡Hola! Soy Rodrigo Bernardino, y hoy nos sumergimos en la ética de los algoritmos, especialmente en la inteligencia artificial.

Balam Mendoza (00:54):
Transmitimos en vivo los martes a las 9:00 p.m., pero también producimos un video podcast editado con subtítulos para hacerlo más dinámico. La ética en la IA no es nueva; desde 2016, y especialmente en 2018, hay estudios que alertan sobre sus implicaciones, aunque muchos han sido ignorados.

Rodrigo (01:56):
Antes de los 2000, navegábamos con nicknames y cookies que rastreaban poco. Con las redes sociales, todo cambió: nombre, edad, género, IP, contactos, ideologías, religión. Cada día, las empresas saben más de nosotros. La potencia de cómputo crece, y la carrera por chips más poderosos alimenta IAs que reconocen patrones en este mar de datos.

"Cada clic que das, cada app que usas, alimenta un algoritmo que te conoce mejor que tú."
– Rodrigo

Rodrigo (03:30):
Esto hace imprescindible hablar de ética. Los algoritmos deciden según etnia, religión, hábitos o código postal, tratándonos por “quiénes parecemos ser”, no por quiénes somos.

Balam Mendoza (04:35):
En 2018, el Departamento de Justicia de EE.UU. usó algoritmos para evaluar riesgos. Ejemplo: un hombre blanco, convicto reincidente, obtuvo un puntaje de riesgo de 3; una mujer negra, sin antecedentes graves, un 8. Estos sesgos, sin auditorías, afectan vidas reales.

"Algoritmos que juzgan por raza o género: ¿dónde está la justicia?"
– Balam Mendoza

La Caja Negra de la IA: Nadie Sabe Qué Pasa

Balam Mendoza (05:30):
Con la mega API de Palantir (mencionada en episodios pasados), los datos se centralizan sin auditorías. ¿Deberían las empresas someterse a auditorías independientes, como las fintech con normas PCI? Un organismo podría certificar el nivel de sesgo o ética en algoritmos.

Rodrigo (07:16):
Sabemos qué hacer, pero las empresas priorizan ganancias. Los algoritmos agrupan usuarios por perfiles, como al evaluar créditos: “Mexicano, de esta zona, con este empleo, no paga”. Aunque seas responsable, te rechazan por “parecerte” a otros. La solución es transparencia: algoritmos comprensibles y auditables.

Rodrigo (09:00):
El problema es que la IA es una caja negra. Incluso los desarrolladores no saben por qué toma ciertas decisiones. El CEO de Anthropic admitió en un ensayo que nadie entiende realmente cómo funciona la IA. Esto complica auditar no solo los razonamientos, sino también los guardrails (límites) que pueden incluir sesgos intencionales.

"Una caja negra que decide tu vida: ¿quién la controla?"
– Balam Mendoza

Balam Mendoza (12:39):
Los guardrails pueden ser loables (evitar temas subidos de tono con menores), pero también refuerzan sesgos geopolíticos. Ejemplo: DeepSeek insiste que Taiwán es parte de China, mostrando intenciones políticas o comerciales, no humanitarias.

Sesgos y Discriminación: El Impacto Social

Rodrigo (10:30):
Los algoritmos deben ser justos, distribuir beneficios y riesgos equitativamente, y respetar la privacidad. Pero manejan datos sensibles sin claridad sobre su uso. Evaluar el impacto social antes de implementar sistemas (como seguros médicos) es clave. Los más necesitados pagan más porque son “propensos” a enfermar, mientras los ricos, con menos estrés, pagan menos.

Balam Mendoza (14:30):
En el empleo, el 80% de los currículums son filtrados por algoritmos. Si tu nombre suena “latino” o no incluye keywords específicas, te descartan sin explicación. Las empresas de reclutamiento te piden adaptar tu CV a la descripción del puesto, pero incluso así, los sesgos persisten.

"Tu currículum no lo lee un humano, sino un algoritmo que puede odiar tu nombre."
– Rodrigo

Rodrigo (17:15):
Las empresas alegan “propiedad intelectual” para no revelar sus algoritmos, convirtiendo la regulación en un trámite burocrático. Cuando aprueban una versión, ya existe una nueva. Necesitamos colaboración entre empresas y gobiernos para regular a la par del desarrollo.

Privacidad y Datos: Una Libertad Falsa

Balam Mendoza (20:51):
La privacidad y la personalización son polos opuestos. Las cookies, que empezaron para recordar usuarios, se volvieron herramientas de rastreo. Las redes sociales prometen control sobre tu privacidad, pero es una farsa: siempre recolectan datos. En 20 años, con datos biométricos (ADN, iris), tendrán un historial completo de tus decisiones.

Rodrigo (23:41):
Los datos biométricos (huellas, iris, ADN) no cambian, y su recolección crece. En México, proponen una base biométrica nacional, pero sin ciberseguridad robusta. El hackeo del INE en 2018, con nombres, fechas de nacimiento y direcciones, mostró los riesgos. ¿Quién garantiza que no se venderá o filtrará?

"Tu ADN, tu iris, tu vida: en manos de quién sabe quién."
– Balam Mendoza

Balam Mendoza (27:44):
Incluso con controles, la corrupción puede filtrar datos. Empresas como Meta o X han sufrido múltiples brechas. ¿Están cosechando datos de la deep web? Conociendo a los tecno-oligarcas, es probable.

Educación en IA: ¿Competencia o Ética?

Balam Mendoza (28:17):
China incluyó la IA en su plan educativo hace semanas, buscando la hegemonía. EE.UU. respondió con su propio plan. En América Latina, especialmente México, hay talento técnico, pero falta colaboración para capacitar en IA con un enfoque ético, no solo competitivo.

Rodrigo (31:21):
En el 50 aniversario de Microsoft, una empleada protestó porque sus IAs se vendieron a Israel para uso militar. La educación debe enseñar a crear algoritmos éticos, con privacidad, equidad y transparencia, y a usuarios a exigir rendición de cuentas.

Balam Mendoza (33:21):
La educación actual es utilitarista: formar ingenieros para competir. Pero necesitamos un enfoque holístico, uniendo ciencias exactas y humanidades. Los derechos humanos deben guiar la IA para evitar repetir errores históricos, como los de la Segunda Guerra Mundial.

"Sin humanidades, la IA solo sirve al poder, no a la humanidad."
– Balam Mendoza

Democracia en Jaque: Algoritmos vs. Derechos

Rodrigo (35:58):
En EE.UU., el presidente aboga por no regular la IA, llamando “daños colaterales” a los perjudicados. Netflix, Spotify o Tinder te atrapan en burbujas algorítmicas, ignorando a minorías o pequeñas productoras. Las empresas se enriquecen controlando datos, justificando que “te dan lo mejor”.

Balam Mendoza (38:12):
La injusticia trasciende la tecnología. La narrativa de “triunfa para escapar” es una falacia. Mark Zuckerberg dice que la privacidad está muerta, pero compra manzanas enteras para su casa. ¿Privacidad solo para los ricos? Necesitamos controlar nuestros datos y exigir auditorías.

Rodrigo (41:13):
Las empresas dicen: “Eres libre de no usar nuestras apps”. Pero sus mentes brillantes diseñan adicciones. Los algoritmos niegan créditos o seguros a los pobres por su zona, empleo o dieta, atrapándolos en la pobreza. La “libertad” es una burbuja.

"Dicen que eres libre, pero los algoritmos te tienen atrapado."
– Rodrigo

Balam Mendoza (43:25):
En 2025, no usar un smartphone es inviable: bancos, apps y comunicaciones lo exigen. Pronto, chips cerebrales o biométricos serán obligatorios en países como EE.UU. o Reino Unido. Los “renegados” quedarán marginados, ampliando desigualdades.

Rodrigo (45:17):
La IA invadirá todo dispositivo con un chip: TVs, bocinas, teléfonos. ChatGPT teme quedar obsoleto si no se integra. Cuidado con lo que escuchan y los sesgos que absorben.

Cierre y Llamado a la Acción

Balam Mendoza (47:04):
Cerramos abriendo el foro. ¿Qué opinan de la IA y sus sesgos? Envíen sus ideas y preguntas. La discusión es vital.

Rodrigo (47:10):
Soy Rodrigo Bernardino. Exijamos transparencia y ética en la IA. ¡Nos escuchamos el próximo martes!

Balam Mendoza (47:15):
Balam Mendoza aquí. Pensemos críticamente para que la IA sirva a la humanidad, no al poder. ¡Hasta la próxima!

"La IA no es el problema; el problema es quién la controla y para qué."
– Balam Mendoza

📢 ¡Conéctate con Digital Humanity!

Gracias por acompañarnos en este episodio de Digital Humanity.

💬 Cuéntanos:
¿Crees que las empresas deberían ser obligadas a auditar sus algoritmos por sesgos?
¿Deberían las empresas ser multadas si sus algoritmos discriminan a ciertos grupos?
¿Debería una IA tener poder para influir en una sentencia judicial?
¿Crees que un código ético global para la IA es viable o utópico?
¡Tu opinión cuenta!

¡Queremos leerte! Escríbenos en:
Threads, FB & IG: @HumanidadDigital
TikTok & Twitch: @digitalhumanity
X, Rumble & YouTube: @DGHDPOD

¡Nos vemos la próxima semana!

HASHTAGS

#algorithms #ética #privacidad #privacidade #algoritmos #educacióninnovadora #machinelearningalgorithms #educaciónconsciente #educacióndelfuturo #inteligenciaartificial #auditoría #sesgos #chatbot

VÍNCULOS