Skip to main content

Manual de uso responsable de Inteligencia Artificial en Comunicación Corporativa HRZ EXA

Page 1


Manual de uso responsable de

Inteligencia Artificial en Comunicación Corporativa

Ética • Automatización • Confianza

Versión 1.0 | Fecha: 03/12/2025 | Documento de referencia aplicable

Contenido

• Uso del manual

• Principios rectores

• Roles mínimos y gobernanza

• Clasificación y niveles de automatización

• Ciclo de vida: 4 pilares

• Guías por caso de uso

• Higiene de prompts y datos

• Checklist de publicación

• Plantillas y anexos

Ciclo de vida: 4 pilares de gestión responsable

Vista rápida del ciclo operativo para prevenir, detectar, responder y mejorar.

•Prevención y preparación: reducir riesgos antes de usar IA.

•Detección y activación: identificar señales tempranas y corregir antes de escalar.

•Gestión y respuesta: corregir con rapidez, con responsabilidad humana.

•Recuperación y mejora continua: aprender, ajustar y elevar madurez.

Uso del manual

Este documento está diseñado para equipos de comunicación, mercadeo, RR. PP., servicio al cliente y áreas afines que usan herramientas de IA (p. ej., chatbots, IA generativa, analítica, automatización de respuestas) en comunicación interna o externa. Úsalo como: (1) guía de decisiones (“¿puedo automatizar esto?”), (2) checklist antes de publicar, (3) protocolo en incidentes, y (4) repositorio de plantillas para gobernanza y trazabilidad.

Este manual se fundamenta en un estudio sobre IA en comunicación corporativa con metodología mixta (encuesta + entrevistas + análisis de contenido/casos). Para que el manual sea autónomo, aquí se resumen los hallazgos que afectan directamente la práctica:

• Encuesta (n=150): 72,7% confía “a veces” en mensajes generados por automatización; 19,3% confía “rara vez”; 4,7%

“nunca”; 3,3% “siempre”.

• Intervención humana: 78% considera “muy importante” la intervención humana en comunicación digital; 20% “moderadamente importante”; 2% “poco importante”; 0% dijo que “no es necesaria”.

• Transparencia percibida: 56% califica a empresas que usan IA como “algo transparentes”; 34% “poco transparentes”; 6,7% “muy transparentes”; 3,3% “para nada transparentes”.

• Reconocimiento de automatización: 80,7% afirma poder reconocer cuando interactúa con un sistema automatizado; 15,3% no está seguro; 4% no puede reconocerlo.

• Valor percibido: 58,7% está de acuerdo en que la IA mejora calidad/rapidez de la comunicación empresarial y 18% totalmente de acuerdo; 20,7% en desacuerdo; 2,7% totalmente en desacuerdo.

• Entrevistas (casos en CR, p. ej. Oxígeno, Amazon, FIFCO y un enfoque técnico en Datasite): coincidencia en que la IA debe ser apoyo complementario, con políticas internas, capacitación, supervisión humana y controles de seguridad/privacidad.

Principios rectores

1. Responsabilidad humana: siempre hay una persona/rol responsable del mensaje o decisión final (la IA no “decide” sin dueño).

2. Transparencia proporcional: comunicar el uso de IA cuando sea relevante para la confianza, especialmente en atención al cliente, contenidos sensibles o cuando el público pueda asumir que habla con una persona.

3. Privacidad y minimización de datos: no ingresar datos personales, sensibles o propiedad intelectual en herramientas no autorizadas; usar solo lo necesario para el objetivo comunicativo.

4. Equidad y no discriminación: prevenir sesgos en segmentación, lenguaje, moderación y automatización; revisar y corregir efectos adversos.

5. Seguridad y control de herramientas: usar herramientas aprobadas, con licencias/controles; restringir servicios públicos cuando exista riesgo de fuga de información.

6. Calidad y verificación: toda salida de IA se considera “borrador” hasta ser verificada (hechos, tono, coherencia, contexto).

7. Trazabilidad: registra qué se automatizó, con qué herramienta, quién revisó y qué se publicó.

Roles mínimos y gobernanza

Adapta estos roles a tu estructura (una persona puede cubrir más de un rol en empresas pequeñas):

• Dueño del proceso (Process Owner): define el caso de uso, aprueba alcance, autoriza herramientas.

• Editor/Validador humano: revisa exactitud, tono, riesgos; aprueba publicación.

• Legal/Compliance: valida reclamos, términos, privacidad, contratos, uso de datos y disclosure.

• Seguridad/TI: aprueba herramientas, accesos, logs, y políticas de datos.

Responsable de datos (si aplica): aprueba uso de datasets, retención y anonimización.

Clasificación de contenidos y niveles de automatización

Niveles propuestos:

Regla práctica

A mayor impacto reputacional/ético, menor automatización y mayor revisión humana.

Nivel Qué permite Ejemplos

A (Prohibido automatizar)

Revisión humana Transparencia recomendada

IA no genera ni responde Crisis, respuesta a medios, temas legales/regulatorios, salud/seguridad, comunicados de despidos/sanciones 100% humano (IA solo para análisis interno, sin texto final)

B (Borrador asistido) IA produce borrador; humano reescribe y valida

Comunicados, emails masivos, materiales de RR. PP., guiones

Revisión obligatoria + verificación de hechos

Sí (si se usó IA para apoyo interno, declarar solo si es relevante)

Caso a caso; sí cuando el público podría sentirse engañado

C (Automatización con guardrails)

IA responde con límites predefinidos

Preguntas frecuentes, chatbot con base de conocimiento controlada

D (Automatización operativa)

Procesos sin texto hacia el público o de bajo riesgo

Etiquetado interno, resúmenes para equipo, clasificación de tickets

Muestreo + auditoría periódica; escalamiento a humano

Supervisión por métricas y muestreo

Sí: indicar que es asistente virtual y cómo escalar a humano

No aplica (interno), salvo políticas internas

Ciclo de vida: 4 pilares de gestión responsable

Pilar 1. Prevención y preparación

Objetivo: reducir riesgos antes de usar IA en comunicación (ética, privacidad, transparencia, reputación) y dejar claras reglas de operación.

Checklist operativo

• Definir el caso de uso y el público objetivo (interno/externo).

• Clasificar el contenido (Nivel A/B/C/D).

• Aprobar herramienta (licencia, privacidad, seguridad) y accesos.

• Crear guardrails: tono, palabras prohibidas, claims no permitidos, límites de la IA.

• Definir revisión humana (quién aprueba y con qué criterios).

• Definir disclosure (si el público debe saber que es IA).

• Configurar registro (log) y métricas (KPIs).

• Capacitar al equipo (uso, límites y riesgos).

Plantillas rápidas (copiar/pegar)

Plantilla 1 — Ficha del caso de uso

Caso de uso

Objetivo

Público

Canal

Nivel (A/B/C/D)

Herramienta

Datos permitidos ____

Revisión humana (rol)

Disclosure requerido Sí/No (texto: ____)

Riesgos principales ____

KPIs

Fecha de revisión

Plantilla 2 — Guardrails de contenido

Tono de marca: ____

Qué SÍ puede decir: ____

Qué NO puede decir: ____

Temas sensibles (derivar a humano): ____

Verificación obligatoria de: hechos / cifras / condiciones / precios / legales

Límites: no consejos médicos/legales; no promesas no aprobadas; no datos personales.

Pilar 2. Detección y activación

Objetivo: identificar señales tempranas de error, sesgo, falta de transparencia o deterioro de confianza y activar corrección antes de que escale. Checklist operativo

• Monitorear calidad (muestreo de salidas, QA editorial).

• Monitorear quejas/feedback (social listening, tickets, encuestas).

• Detectar alucinaciones: datos inventados, citas falsas, fechas erróneas.

• Detectar sesgos: lenguaje excluyente, trato desigual, segmentación problemática.

• Activar escalamiento automático a humano en casos sensibles o no resueltos.

• Registrar incidentes (qué pasó, impacto, corrección).

Plantillas rápidas (copiar/pegar)

Plantilla 3 — Señales de alerta

Alerta si ocurre: (1) usuario se queja de“me engañaron/parece robot”, (2) información incorrecta, (3) lenguaje ofensivo/discriminatorio, (4) fuga de datos, (5) aumento anormal de tickets.

Nivel del incidente: leve / moderado / grave.

Acción inmediata: pausar automatización / ajustar prompt / derivar a humano / comunicar corrección.

Turn static files into dynamic content formats.

Create a flipbook