- IA con Sentido 🇪🇸 🇲🇽 / Sensible AI 🇺🇸 🇬🇧
- Posts
- IA con Sentido #3: Tu newsletter semanal de IA Responsable en Español.
IA con Sentido #3: Tu newsletter semanal de IA Responsable en Español.
Lo esencial en minutos: Top 5 + hispanósfera, mundo y empresa + AI Sycophancy + recursos útiles

👋🏻 ¡Hola! Bienvenido a la tercera edición de ”IA con Sentido”.
Esta semana destilé lo que sí mueve decisiones en IA responsable, en español y con foco en nuestra comunidad.
En minutos: qué pasó, por qué importa y qué haría hoy.
Riesgo de la semana: AI Sycophancy (cuando el modelo te da la razón aunque estés equivocado).
Gracias por estar aquí; empecemos 👇
P.D.: Si te sirve, compártela y dime qué tema de tu país/sector quieres ver.
LOS CINCO TITULARES QUE TE IMPORTAN HOY

Top 5 noticias de la semana
🆘 Llamado mundial por “líneas rojas” en IA
→ Una coalición de más de 200 líderes, Nobel, exmandatarios y pioneros tecnológicos firmaron un manifiesto que pide establecer límites internacionales con IA para 2026 para proteger a la humanidad.
🌎 Sillas vacías en el diálogo de IA
→ La ONU lanza el “Global Dialogue on AI Governance” mientras 118 países siguen fuera de las principales iniciativas, cuestionando la inclusividad y la rendición de cuentas.
🚥 Radiografía del lobby Big Tech en Latinoamérica
→ Una investigación transfronteriza documentó 2.939 gestiones de influencia en 10 países y la UE evidenciando cómo las plataformas inclinan la cancha regulatoria. (gracias EON institute por la noticia)
🌎 La ONU activa su asesoría científica en IA
→ Al inaugurar la 80ª Asamblea General, convocará esta semana una reunión de alto nivel para iniciar el diálogo y detallar el proceso de designación de un Panel Científico de 40 miembros sobre IA conforme a la resolución del 26 de agosto.
🧑🏼💻 AI Workforce Consortium — déficit crítico de talento responsable
→ El 78 % de puestos TI ya exige habilidades en IA, pero persisten carencias en ética, seguridad y gobernanza que dificultan la adopción.
✍🏼 Mi apunte: Mucho multilateralismo en papel (manifiestos, foros) pero faltan métricas y representación de LATAM/África para que no queden como clubes cerrados.
👉🏼 Si estuviera en tu lugar: Define 3 “líneas rojas” propias (como manipulación electoral, biometría sin base legal, deepfakes íntimos) y prepara un “position one-pager” para consultas públicas; súmate a 1 red regional donde tengas voz y voto.
LO MÁS RELEVANTE DEL MUNDO HISPANO
¿Qué pasó en la Hispanósfera ?

Por qué esta sección: pistas locales para decidir sin copiar marcos “importados”.
💻 Iniciativa multiactor en 4 países potencia habilidades digitales de jóvenes vulnerables
→ UNESCO, junto a KPMG, Pluralsight y Junior Achievement Americas, formó a más de 1,100 participantes de contextos desfavorecidos en Argentina, Brasil, Colombia y México en uso ético y práctico de IA generativa mediante cursos en línea dentro de su Global Skills Academy.
🇪🇸 Giro docente: orales, simulaciones y proyectos en aula
→ Centros educativos reemplazan tareas tradicionales por dinámicas presenciales para medir razonamiento y colaboración frente a herramientas generativas. (gracias Luis Enrique Velasco por la noticia)
🇲🇽 México entra al top10 del hardware para IA
→ La OMC lo sitúa 8.º en exportaciones de insumos que habilitan estos sistemas, con USD 100 000 millones en 2022 y una canasta que va de semiconductores a computadoras. (gracias Cristina Martinez por la noticia)
👉🏼 Si estuviera en tu lugar: pide cupos para tu comunidad en el Global Skills Academy de la UNESCO.
EL PULSO GLOBAL QUE TE IMPACTA LOCALMENTE
¿Qué más pasó en el mundo ?

Cómo lo leo yo: La agenda combina kits técnicos, exigibilidad y capacidad estatal.
🇯🇵 AISI Japón publica su kit abierto para medir riesgos
→ referencia de evaluación de seguridad con red-teaming automatizado y datasets incluidos para pruebas locales.
🇪🇺 Bruselas mantiene el cronograma
→ La Comisión Europea descarta una moratoria del AI Act y, en diciembre, presentará un paquete de simplificación digital para aliviar cargas sin reabrir la ley.
🇮🇹 Italia aprueba ley integral de IA
→ Italia se convierte en el primer país de la UE en promulgar una ley nacional que regula el uso de IA en múltiples sectores, con sanciones por deepfakes, requisitos de transparencia y límites para menores de 14 años.
🇸🇬 Singapur pone a toda su burocracia a estudiar
→ El gobierno exigirá alfabetización en IA a los servidores públicos y ya opera 16 000 bots internos para automatizar tareas.
🇺🇸 Controles de exportación estadounidenses afectan IA
→ Un análisis advierte que los nuevos controles de exportación de EE. UU. sobre tecnologías de IA ya son una cuestión estratégica frente a la competencia y la geopolítica.
🇬🇧 Eje transatlántico para escalar cómputo científico
→ EE. UU. y Reino Unido pactan cooperación para infraestructura potente, acceso de investigadores a capacidad, nuevos datasets y estándares de seguridad compartidos.
🌎 20 autoridades firman sobre gobernanza algorítmica
→ Veinte autoridades de protección de datos firman la declaración de Seúl para aplicar marcos vigentes con bases legales del entrenamiento, salvaguardas proporcionales y códigos de práctica.
🇨🇳 Marco 2.0 chino de gobernanza algorítmica y primeras sanciones
→ La CAC presenta un esquema 2.0 con pruebas, reversión de versiones, “circuit breakers”, etiquetado y supervisión humana, y anuncia medidas contra apps por recolectar biometría sin consentimiento.
✈️ Agentes que viajan por ti
→ Phocuswright prevé la convergencia de identidad digital e IA generativa con asistentes autónomos que reservarán, comprarán y personalizarán experiencias. (gracias Felix Arroyo por la noticia)
🇪🇺 El Data Act de la UE entra en acción
→ Desde el 12 de septiembre rigen derechos de acceso/portabilidad para productos conectados, reglas de intercambio B2B y B2G, migración de nube sin cargos antes de 2027 y barreras a requerimientos extranjeros.
🇦🇪 Gobierno ‘AI-native’ en Abu Dabi para 2027
→ El plan oficial prevé desplegar más de 200 soluciones en el sector público como parte de su nueva estrategia.
👉🏼 Si estuviera en tu lugar: Adopta el kit de riesgo de Japón como check interno de red-teaming / Haz un gap-analysis AI Act/Data Act (portabilidad, trazabilidad, cláusulas cloud) / Etiqueta contenido generado y documenta supervisión humana en casos sensibles.
MOVIMIENTOS DE EMPRESAS

¿Y a nivel empresarial ?
📈 Microsoft anuncia el datacenter de IA más potente del mundo
→ Levantará en Wisconsin un complejo unificado con cientos de miles de GPUs y arquitectura de superordenador concebida para superar por amplio margen a los líderes actuales.
💵 Nvidia — inversión récord en OpenAI
→ Acordó por carta de intención aportar hasta 100 000 M $ para desplegar ~10 GW de cómputo con sus chips, con 10 000 M $ al primer gigavatio y una participación accionaria, iniciando en 2H-2026. (gracias Ana Mateu de Ros y Marina Grau por la noticia)
🧷 Meta — super PAC contra regulaciones estatales
→ Impulsa el “American Technology Excellence Project” para respaldar candidatos y frenar iniciativas locales que incrementen cargas sobre IA y plataformas.
🚸 LinkedIn — ampliación del uso de publicaciones para entrenamiento
→ Desde el 3 de noviembre activa un ajuste de uso de contenido en UE/EEE, Reino Unido, Canadá, Suiza y Hong Kong con opción de exclusión; la actualización no incluye a Latinoamérica.
⚖️ Sanciones por citas falsas con IA
→ Un juez de Nevada detectó 14 referencias inexistentes en un escrito y ordenó medidas correctivas, parte de una ola nacional de reprimendas más severas.
🏛️Anthropic + NNSA — “cortafuegos” nuclear para modelos
→ Crearon un clasificador que distingue consultas sobre armas atómicas con ~96 % de acierto y ya opera como filtro en Claude, con metodología a compartir en la industria.
📢 Google DeepMind — lanza su Frontier Safety Framework 3.0
→ Amplía la vigilancia de riesgos a conductas emergentes como resistencia al apagado y capacidad persuasiva, incorporando pruebas y monitoreo reforzados.
👉🏼 Si estuviera en tu lugar: Programo prueba mensual anti-alucinaciones con 10 casos (como te lo explico en la sección “riesgo”).
DE QUIENES MUEVEN LA AGENDA REGULATORIA
Organizaciones y Estándares

📊 CSIS saca Informe 2025 sobre IA en el Sur Global
→ Expone cómo la competencia EE. UU.–China condiciona decisiones de adopción, talento e infraestructura en países de ingresos bajos y medios; valora los modelos abiertos para abaratar y localizar; y propone alianzas, inversión y estándares de riesgo para capacidades soberanas con enfoque democrático.
🌏 OECD insta a gobiernos a usar IA responsablemente
→ Publicó un llamado para que administraciones públicas adopten IA de forma transparente, confiable y alineada con la confianza ciudadana.
💼 Orientación directiva para juntas empresariales
→ El Institute of Directors (Reino Unido) emitió un documento “AI Governance in the Boardroom” que orienta a directorios sobre preguntas clave y principios para gobernar IA dentro de las empresas.
👉🏼 Si estuviera en tu lugar: Mira los casos de uso de estos 3 reportes y elige 5 preguntas de gobernanza y 3 controles mínimos para adoptar hoy en tu organización.
LECTURAS RELEVANTES Y SERIAS DE LA SEMANA
¿Qué leer este fin?

📊 WEF — playbook para escalar IA responsable
→ El WEF publica un playbook para escalar IA responsable: solo 10% tiene gobernanza efectiva y menos del 1% la opera end-to-end, con pasos prácticos para cerrar la brecha.
🙊 “Modelos de razonamiento no siempre dicen lo que piensan”
→ Muestra divergencias entre trazas internas y respuestas, con un protocolo empírico para detectar y mitigar esas discrepancias.
📚 OCDE — Governing with Artificial Intelligence (estudio 2025)
→ Analiza ~200 usos en 11 funciones públicas y resalta habilitadores como infraestructura, capacidades, participación y compras.
📢 Anthropic — Economic Index (septiembre 2025)
→ Su informe económico muestra brechas por país y tamaño de empresa en uso de IA generativa, concentrando ganancias de productividad en pocos actores.
📚 OpenAI — Detecta y reduce los objetivos ocultos de los modelos
→ Describe señales de conducta estratégica y pruebas para identificar objetivos encubiertos, junto a técnicas de entrenamiento que reducen ese patrón.
✏️ Harvard — Emotional Manipulation by AI Companions
→ Presenta evidencia experimental de tácticas persuasivas en asistentes afectivos y sus efectos sobre decisiones y consentimiento.
✋ Dark Patterns en modelos de lenguage
→ Introduce una suite para detectar patrones oscuros (adulación) y cuantificar riesgos de diseño persuasivo en modelos. (gracias Marie Patel-Saville por el reporte)
✍🏼 Mi apunte : 3 hilos comunes: escalar con controles, detectar objetivos ocultos y evitar manipulación.
BASES DE DATOS, REPOS LISTOS PARA USAR
Recursos útiles

✅ Catálogo regional de IA pública en ALC
El repositorio “Sistemas de Algoritmos Públicos” de la Escuela de Gobierno Alberto Lleras Camargo de la Universidad de los Andes documenta implementaciones gubernamentales en la región y es citado por el informe Governing with AI de la OCDE como insumo para mapear casos y aprendizajes.
✅ OECD.AI — hub de datos y herramientas para IA en gobierno
Ofrece visión global con casos de uso, métricas y recursos prácticos, incluyendo el nuevo reporte Governing with AI que explora 200 casos en funciones clave del sector público.
👉🏼 Cómo lo uso yo: Me lanzo al catalogo ALC, elijo 1 caso y documento si funcionó (y por qué) para replicar.
EL LIBRO QUE TE RECOMIENDO

📚 Weapons of Math Destruction
Esta semana iniciamos con el “Club de Lectura de IA Responsable” y lo inauguramos con Weapons of Math Destruction de Cathy O’Neil.
¿Por qué se destaca este libro?
Muestra cómo algoritmos opacos a gran escala pueden amplificar sesgos y daño, y por eso exige gobernanza (métricas, transparencia y vías de recurso) como base de la IA responsable.
📢 Tienes un equipo o comunidad interesada en IA Responsable?
Comparte esta newsletter con ellos.
HUMOR RESPONSABLE
El chiste ético de la semana

¡Y hasta aquí por hoy!
Si te sirvió, respóndeme y cuéntame qué quisieras ver en la próxima edición.
¿A quién más le ayuda?
Reenvíala a tu equipo o compárteles el link de suscripción.
Que tengas un excelente día! Con gratitud y té en mano ☕, Karine Mamá, apasionada con la IA Responsable a beneficio de las personas y también AI Governance Consultant & WiAIG Mexico Leader |
Todas las fuentes fueron verificadas y con fecha; si ves un error, respóndeme y lo corrijo en la versión web.
