Ecuador / Jueves, 29 Enero 2026

Присоединяйтесь к Вавада казино и начните играть с бонусами уже сегодня — быстрый вход и топовые игры ждут вас!

Entre el 12 % y 18 % de las empresas con soluciones de IA cuentan con políticas internas sobre manejo de datos.

La inteligencia artificial avanza en Ecuador

Entre el 12 % y 18 % de las empresas con soluciones de IA cuentan con políticas internas sobre manejo de datos.
Foto: Freepik
Empresas ecuatorianas aceleran el uso de inteligencia artificial en áreas clave, aunque la mayoría aún carece de políticas internas para datos, decisiones automatizadas y control de riesgos.
COMPARTE EN: Facebook X LinkedIn Whatsapp

La inteligencia artificial (IA) dejó de ser una promesa para convertirse en una herramienta cotidiana en las empresas ecuatorianas. Sectores como retail, banca, telecomunicaciones y servicios ya la utilizan para automatizar procesos, analizar datos y mejorar la experiencia de clientes. Sin embargo, el crecimiento de estas tecnologías expone una brecha crítica: la falta de gobernanza y normas internas para su uso responsable.

Alta adopción, baja institucionalización

Diagnósticos realizados por Tosellmore entre 2024 y 2025 muestran que solo entre el 12 % y 18 % de las empresas con soluciones de IA cuentan con políticas internas formalizadas sobre manejo de datos y uso ético de estas tecnologías.
En contraste, cerca del 70 % mantiene proyectos activos de IA sin normas claras, métricas internas ni estructuras de control, lo que evidencia un desfase entre innovación y gestión.

Datos personales y vacíos normativos

Uno de los principales desafíos se concentra en la clasificación y protección de datos personales y sensibles. Aunque la Ley Orgánica de Protección de Datos Personales (LOPDP) rige en Ecuador desde 2021, su aplicación operativa aún resulta limitada y no contempla regulaciones específicas sobre decisiones automatizadas ni evaluaciones de riesgos algorítmicos.

Este escenario obliga a las empresas a asumir un rol activo en la creación de marcos propios de control, ante la ausencia de lineamientos detallados desde la normativa vigente.

Supervisión humana y control de sesgos

Expertos coinciden en que la supervisión humana, la prevención de sesgos y la alineación con estándares internacionales de protección de datos se vuelven factores críticos para garantizar un uso confiable de la IA, especialmente en procesos que impactan directamente a clientes, usuarios y colaboradores.

“En Ecuador existe un interés genuino por innovar con inteligencia artificial. El reto es acompañar esa innovación con estructuras claras que permitan usarla de forma segura y ética”, señaló Mariángel Hernández, consultora internacional en innovación y CEO de Tosellmore.

Riesgos reputacionales y operativos

El uso de IA en marketing, ventas, finanzas y atención al cliente ya muestra beneficios concretos. Sin embargo, la falta de auditorías continuas, métricas de desempeño y criterios definidos para la toma de decisiones automatizadas puede amplificar errores y afectar tanto la operación interna como la confianza pública en las marcas.

La agenda de 2026

De cara a 2026, el foco estará en consolidar modelos de IA responsable y explicable, capaces de transparentar cómo y por qué se toman ciertas decisiones. A esto se suma la necesidad de integrar la ética y la privacidad desde el diseño, no como un requisito legal, sino como parte estructural de cualquier proyecto tecnológico.

Te puede interesar

Contenido externo patrocinado