IA con Sentido #9: Tu newsletter de IA Responsable en Español - Edición Martes

Noticias esenciales de IA Responsable convertidas en acciones: qué pasó en el mundo y cómo aplicarlo con titulares, riesgo y recursos prácticos.

👋🏻 ¡Hola! Ya somos +2,090 leyendo IA con Sentidopara pasar de titulares a decisiones.

Desde hoy tendrás 2 ediciones (martes y viernes), más cortas y al grano. 

En esta 9.ª edición, verás señales de gobernanza global, impulso LATAM, empresas endureciendo seguridad y el caso Reddit vs Perplexity que reabre el debate de datos y licencias.

Siempre con tu sección “de la noticia a tu plan de acción”, el riesgo de la semana y un recurso clave.

Empecemos 👇

TOP NOTICIAS

🇨🇳 China crea WAICO para gobernanza IA global 
→ Anuncia la World Artificial Intelligence Cooperation Organisation para coordinar normas internacionales.

🇲🇽 México lanza PotencIA MX 
→ Meta, Tec de Monterrey y el gobierno crean la primera aceleradora nacional de IA abierta para impulsar 30 startups sin costo de licencia.

⚖️ Reddit Demanda Perplexity 
→ Acusa a la startup de entrenar su IA con contenido sin licencia y exige compensación económica.

🧠 Anthropic eleva estándares de seguridad 
→ Publica su AI Scaling Policy con nuevas técnicas de auditoría y simulación para escalar IA de forma segura.

¿QUÉ PASÓ EN LA HISPANÓSFERA?

🇨🇴 Colombia impulsa alfabetización crítica ante IA 
→ La UNESCO lanza Minds Over AI durante la Semana Global MIL para fortalecer educación mediática frente a manipulación algorítmica.

🧩 Adigital y BID Lab presentan IAméricas México 
→ Programa para promover la IA ética y responsable, con meta de impactar 350 000 mujeres y 1 500 organizaciones hacia 2027.

🔬 Científicos españoles exigen transparencia IA 
→ La COSCE pide regular la IA sin sustituir el juicio clínico humano, priorizando ética, evidencia y seguridad.

⚖️ ICAM publica guía IA para abogacía 
→ El colegio madrileño lanza la primera guía práctica adaptada al AI Act europeo para uso responsable de IA en despachos.

¿QUÉ MÁS PASÓ EN EL MUNDO?

🏥 OMS y Corea impulsan IA segura en salud 
→ En AIRIS 2025, reguladores y países acuerdan estrategia global para una IA ética y equitativa en atención sanitaria.

🍁 Canadá arriesga soberanía de datos en salud 
→ El retraso del AI Data Act expone información sensible e indígena ante una IA sanitaria sin protección legal.

🇦🇪 Dubái lanza plan IA con meta de 30 unicornios 
→ El jeque Hamdan presenta plataforma para crear 3,000 empleos y posicionar Dubái como hub tecnológico global.

💰 Banca evalúa riesgos por IA “agente” 
→ El sector financiero plantea nuevos marcos de gobernanza para mitigar riesgos de sistemas autónomos en operaciones.

☁️ Organización Meteorológica adopta IA 
→ La WMO aplica IA/ML en pronósticos y alertas sin reemplazar el juicio humano, buscando cobertura global y seguridad climática.

🇯🇵 Japón publica AI Basic Plan 
→ Presenta políticas para una IA segura y equilibrada entre innovación y riesgo, alineada con estándares internacionales.

🇦🇪 Abu Dhabi acogerá Cumbre Global de IA 
→ Reunirá a líderes gubernamentales y empresariales para debatir gobernanza responsable y acceso inclusivo.

🇮🇸 Islandia aprueba Plan Nacional de IA 
→ Adopta 25 medidas para innovación, educación y gobernanza ética alineada con la UE.

🇻🇳 Vietnam acelera IA con seguridad 
→ Fortalece transparencia y responsabilidad mientras impulsa su industria tecnológica.

🇰🇪 Kenia impulsa resolución global sobre IA ética 
→ Propone en la ONU una IA segura y sostenible al servicio de las personas y el planeta.

¿Y A NIVEL EMPRESARIAL?

🏛️ PROA Comunicación lanza IA ética en España 
→ Crea junto a BeAI el primer modelo de IA confidencial para gestión de reputación empresarial.

🌍 ETHIS - plataforma global de gobernanza humana en IA 
→ Lanzada en SF Tech Week, promueve control humano directo y participación ciudadana en regulación IA.

🧑‍💻 Microsoft presenta Copilot centrado en humanos 
→ Su nueva versión añade 12 funciones para personalizar IA y mejorar colaboración y bienestar laboral.

ORGANIZACIONES Y ESTÁNDARES

🌍 AI gobernanza global del WEF
→ El Foro Económico Mundial destacó el índice AGILE 2025 que mide la capacidad regulatoria de IA en 40 países revelando brechas clave.

DE LA NOTICIA A TU PLAN DE ACCIÓN

Te convierto estas noticias en acciones concretas que puedes iniciar desde hoy para fortalecer tu gobernanza de IA. Elige 3 acciones para tener impacto en 30 días:

🟪 Comité de IA → crea un comité cross-funcional con poder de veto y agenda quincenal para riesgos, roadmap y métricas.
🟪 Política y capacitación BYOAI → publica guía “trae tu propia IA” y forma a todo el personal en usos permitidos, privacidad y trazabilidad.
🟪 Ética y DD. HH. → incorpora evaluación de impacto en derechos y no discriminación en el inicio de cada proyecto y al cierre
🟪 Proveedores y salida → incluye cláusulas de auditoría, portabilidad de datos/modelos y plan de salida probado en todos los contratos.
🟪 Ecosistema y voz pública → participa en consultas regulatorias y firma convenios con academia y sociedad civil para pruebas y validación independientes.

LECTURAS RELEVANTES

📄 Te recomiendo leer este reporte que resume muy bien el avance de marcos regulatorios globales, especial enfoque en transparencia y categorización de riesgos. Se destaca el impulso del EU AI Act y la cooperación internacional.

✍🏼 Mis apuntes :

Me llevo la importancia de priorizar la transparencia para construir confianza y responsabilidad. También adoptar frameworks flexibles y adaptativos para responder rápidamente a cambios.

RIESGO DE LA SEMANA

🔴 Desactívalo

Imagina que un analista copia en su chat preferido un extracto de un contrato “solo para resumirlo rápido”. Semanas después, ese mismo patrón de cláusulas empieza a “aparecer” en respuestas a otros usuarios porque el proveedor retuvo y usó esas consultas para entrenar su modelo. No hubo fuga intencional, pero sí exposición innecesaria: datos sensibles en manos de un sistema que no controlas, trazas difíciles de borrar y posibles choques con NDAs o privacidad. Hacer opt-out de retención corta ese hilo: tus búsquedas no alimentan el modelo, reduces superficie de riesgo legal y técnico y proteges el know-how de tu equipo.

👉🏼 Qué haría en tu lugar: 

🟩 Desactiva “usar mis datos para entrenar/retención” en Ajustes → Privacidad del proveedor que uses.
🟩 Decláralo en tu política BYOAI
🟩 Si un servicio no ofrece opt-out, trátalo como público: nada de PII, secretos, código o contratos.

¿Necesitas ayuda?
Sientes que no sabes como hacerlo, sin problema, creamos un plan juntos.

RECURSOS ÚTILES

🔴 La base de datos de incidentes de IA

La AI Incident Database (AIID) recopila, organiza y comparte reportes de incidentes reales causados por sistemas de inteligencia artificial para ayudar a investigadores, desarrolladores y responsables de políticas a prevenir errores repetidos y mejorar la seguridad de la IA.

👉🏼 Cómo lo uso yo: transformo casos reales en controles, tests y playbooks operativos para reducir riesgo y acelerar una IA segura en tu organización.

HUMOR RESPONSABLE

¡Es todo por hoy! 

¿Qué tema quieres que investigue el viernes?

¿Qué te pareció la newsletter de hoy?

Tu respuesta me ayuda a crear una mejor versión.

Iniciar Sesión o Suscríbete para participar en las encuestas.

Si esto te ayuda, reenvíalo a tu equipo y respóndeme con tu feedback (me sirve mucho). Nos leemos el viernes 💌

Con gratitud y té en mano ☕,

Karine

Mamá, apasionada con la IA Responsable a beneficio de las personas y también AI Governance Consultant & WiAIG Mexico Leader
LinkedIn - [email protected] - www.karine.ai

Todas las fuentes fueron verificadas y con fecha; si ves un error, respóndeme y lo corrijo en la versión web. - ESPANOL