- IA con Sentido 🇪🇸 🇲🇽 / Sensible AI 🇺🇸 🇬🇧
- Posts
- IA con Sentido #9: Tu newsletter de IA Responsable en Español - Edición Martes
IA con Sentido #9: Tu newsletter de IA Responsable en Español - Edición Martes
Noticias esenciales de IA Responsable convertidas en acciones: qué pasó en el mundo y cómo aplicarlo con titulares, riesgo y recursos prácticos.

👋🏻 ¡Hola! Ya somos +2,090 leyendo ”IA con Sentido” para pasar de titulares a decisiones.
Desde hoy tendrás 2 ediciones (martes y viernes), más cortas y al grano.
En esta 9.ª edición, verás señales de gobernanza global, impulso LATAM, empresas endureciendo seguridad y el caso Reddit vs Perplexity que reabre el debate de datos y licencias.
Siempre con tu sección “de la noticia a tu plan de acción”, el riesgo de la semana y un recurso clave.
Empecemos 👇
TOP NOTICIAS

🇨🇳 China crea WAICO para gobernanza IA global
→ Anuncia la World Artificial Intelligence Cooperation Organisation para coordinar normas internacionales.
🇲🇽 México lanza PotencIA MX
→ Meta, Tec de Monterrey y el gobierno crean la primera aceleradora nacional de IA abierta para impulsar 30 startups sin costo de licencia.
⚖️ Reddit Demanda Perplexity
→ Acusa a la startup de entrenar su IA con contenido sin licencia y exige compensación económica.
🧠 Anthropic eleva estándares de seguridad
→ Publica su AI Scaling Policy con nuevas técnicas de auditoría y simulación para escalar IA de forma segura.
¿QUÉ PASÓ EN LA HISPANÓSFERA?

🇨🇴 Colombia impulsa alfabetización crítica ante IA
→ La UNESCO lanza Minds Over AI durante la Semana Global MIL para fortalecer educación mediática frente a manipulación algorítmica.
🧩 Adigital y BID Lab presentan IAméricas México
→ Programa para promover la IA ética y responsable, con meta de impactar 350 000 mujeres y 1 500 organizaciones hacia 2027.
🔬 Científicos españoles exigen transparencia IA
→ La COSCE pide regular la IA sin sustituir el juicio clínico humano, priorizando ética, evidencia y seguridad.
⚖️ ICAM publica guía IA para abogacía
→ El colegio madrileño lanza la primera guía práctica adaptada al AI Act europeo para uso responsable de IA en despachos.
¿QUÉ MÁS PASÓ EN EL MUNDO?

🏥 OMS y Corea impulsan IA segura en salud
→ En AIRIS 2025, reguladores y países acuerdan estrategia global para una IA ética y equitativa en atención sanitaria.
🍁 Canadá arriesga soberanía de datos en salud
→ El retraso del AI Data Act expone información sensible e indígena ante una IA sanitaria sin protección legal.
🇦🇪 Dubái lanza plan IA con meta de 30 unicornios
→ El jeque Hamdan presenta plataforma para crear 3,000 empleos y posicionar Dubái como hub tecnológico global.
💰 Banca evalúa riesgos por IA “agente”
→ El sector financiero plantea nuevos marcos de gobernanza para mitigar riesgos de sistemas autónomos en operaciones.
☁️ Organización Meteorológica adopta IA
→ La WMO aplica IA/ML en pronósticos y alertas sin reemplazar el juicio humano, buscando cobertura global y seguridad climática.
🇯🇵 Japón publica AI Basic Plan
→ Presenta políticas para una IA segura y equilibrada entre innovación y riesgo, alineada con estándares internacionales.
🇦🇪 Abu Dhabi acogerá Cumbre Global de IA
→ Reunirá a líderes gubernamentales y empresariales para debatir gobernanza responsable y acceso inclusivo.
🇮🇸 Islandia aprueba Plan Nacional de IA
→ Adopta 25 medidas para innovación, educación y gobernanza ética alineada con la UE.
🇻🇳 Vietnam acelera IA con seguridad
→ Fortalece transparencia y responsabilidad mientras impulsa su industria tecnológica.
🇰🇪 Kenia impulsa resolución global sobre IA ética
→ Propone en la ONU una IA segura y sostenible al servicio de las personas y el planeta.
¿Y A NIVEL EMPRESARIAL?

🏛️ PROA Comunicación lanza IA ética en España
→ Crea junto a BeAI el primer modelo de IA confidencial para gestión de reputación empresarial.
🌍 ETHIS - plataforma global de gobernanza humana en IA
→ Lanzada en SF Tech Week, promueve control humano directo y participación ciudadana en regulación IA.
🧑💻 Microsoft presenta Copilot centrado en humanos
→ Su nueva versión añade 12 funciones para personalizar IA y mejorar colaboración y bienestar laboral.
ORGANIZACIONES Y ESTÁNDARES

🌍 AI gobernanza global del WEF
→ El Foro Económico Mundial destacó el índice AGILE 2025 que mide la capacidad regulatoria de IA en 40 países revelando brechas clave.
DE LA NOTICIA A TU PLAN DE ACCIÓN

Te convierto estas noticias en acciones concretas que puedes iniciar desde hoy para fortalecer tu gobernanza de IA. Elige 3 acciones para tener impacto en 30 días:
🟪 Comité de IA → crea un comité cross-funcional con poder de veto y agenda quincenal para riesgos, roadmap y métricas.
🟪 Política y capacitación BYOAI → publica guía “trae tu propia IA” y forma a todo el personal en usos permitidos, privacidad y trazabilidad.
🟪 Ética y DD. HH. → incorpora evaluación de impacto en derechos y no discriminación en el inicio de cada proyecto y al cierre
🟪 Proveedores y salida → incluye cláusulas de auditoría, portabilidad de datos/modelos y plan de salida probado en todos los contratos.
🟪 Ecosistema y voz pública → participa en consultas regulatorias y firma convenios con academia y sociedad civil para pruebas y validación independientes.
LECTURAS RELEVANTES
📄 Te recomiendo leer este reporte que resume muy bien el avance de marcos regulatorios globales, especial enfoque en transparencia y categorización de riesgos. Se destaca el impulso del EU AI Act y la cooperación internacional.
✍🏼 Mis apuntes :
Me llevo la importancia de priorizar la transparencia para construir confianza y responsabilidad. También adoptar frameworks flexibles y adaptativos para responder rápidamente a cambios.
RIESGO DE LA SEMANA

🔴 Desactívalo
Imagina que un analista copia en su chat preferido un extracto de un contrato “solo para resumirlo rápido”. Semanas después, ese mismo patrón de cláusulas empieza a “aparecer” en respuestas a otros usuarios porque el proveedor retuvo y usó esas consultas para entrenar su modelo. No hubo fuga intencional, pero sí exposición innecesaria: datos sensibles en manos de un sistema que no controlas, trazas difíciles de borrar y posibles choques con NDAs o privacidad. Hacer opt-out de retención corta ese hilo: tus búsquedas no alimentan el modelo, reduces superficie de riesgo legal y técnico y proteges el know-how de tu equipo.
👉🏼 Qué haría en tu lugar:
🟩 Desactiva “usar mis datos para entrenar/retención” en Ajustes → Privacidad del proveedor que uses.
🟩 Decláralo en tu política BYOAI
🟩 Si un servicio no ofrece opt-out, trátalo como público: nada de PII, secretos, código o contratos.
¿Necesitas ayuda?
Sientes que no sabes como hacerlo, sin problema, creamos un plan juntos.
RECURSOS ÚTILES
🔴 La base de datos de incidentes de IA
La AI Incident Database (AIID) recopila, organiza y comparte reportes de incidentes reales causados por sistemas de inteligencia artificial para ayudar a investigadores, desarrolladores y responsables de políticas a prevenir errores repetidos y mejorar la seguridad de la IA.
👉🏼 Cómo lo uso yo: transformo casos reales en controles, tests y playbooks operativos para reducir riesgo y acelerar una IA segura en tu organización.
HUMOR RESPONSABLE

¡Es todo por hoy!
¿Qué tema quieres que investigue el viernes?
¿Qué te pareció la newsletter de hoy?Tu respuesta me ayuda a crear una mejor versión. |
Iniciar Sesión o Suscríbete para participar en las encuestas. |
Si esto te ayuda, reenvíalo a tu equipo y respóndeme con tu feedback (me sirve mucho). Nos leemos el viernes 💌
Con gratitud y té en mano ☕, Karine Mamá, apasionada con la IA Responsable a beneficio de las personas y también AI Governance Consultant & WiAIG Mexico Leader |
Todas las fuentes fueron verificadas y con fecha; si ves un error, respóndeme y lo corrijo en la versión web. - ESPANOL


