La inteligencia artificial avanza en Ecuador
La inteligencia artificial (IA) dejó de ser una promesa para convertirse en una herramienta cotidiana en las empresas ecuatorianas. Sectores como retail, banca, telecomunicaciones y servicios ya la utilizan para automatizar procesos, analizar datos y mejorar la experiencia de clientes. Sin embargo, el crecimiento de estas tecnologías expone una brecha crítica: la falta de gobernanza y normas internas para su uso responsable.
Alta adopción, baja institucionalización
Diagnósticos realizados por Tosellmore entre 2024 y 2025 muestran que solo entre el 12 % y 18 % de las empresas con soluciones de IA cuentan con políticas internas formalizadas sobre manejo de datos y uso ético de estas tecnologías.
En contraste, cerca del 70 % mantiene proyectos activos de IA sin normas claras, métricas internas ni estructuras de control, lo que evidencia un desfase entre innovación y gestión.
Datos personales y vacíos normativos
Uno de los principales desafíos se concentra en la clasificación y protección de datos personales y sensibles. Aunque la Ley Orgánica de Protección de Datos Personales (LOPDP) rige en Ecuador desde 2021, su aplicación operativa aún resulta limitada y no contempla regulaciones específicas sobre decisiones automatizadas ni evaluaciones de riesgos algorítmicos.
Este escenario obliga a las empresas a asumir un rol activo en la creación de marcos propios de control, ante la ausencia de lineamientos detallados desde la normativa vigente.
Supervisión humana y control de sesgos
Expertos coinciden en que la supervisión humana, la prevención de sesgos y la alineación con estándares internacionales de protección de datos se vuelven factores críticos para garantizar un uso confiable de la IA, especialmente en procesos que impactan directamente a clientes, usuarios y colaboradores.
“En Ecuador existe un interés genuino por innovar con inteligencia artificial. El reto es acompañar esa innovación con estructuras claras que permitan usarla de forma segura y ética”, señaló Mariángel Hernández, consultora internacional en innovación y CEO de Tosellmore.
Riesgos reputacionales y operativos
El uso de IA en marketing, ventas, finanzas y atención al cliente ya muestra beneficios concretos. Sin embargo, la falta de auditorías continuas, métricas de desempeño y criterios definidos para la toma de decisiones automatizadas puede amplificar errores y afectar tanto la operación interna como la confianza pública en las marcas.
La agenda de 2026
De cara a 2026, el foco estará en consolidar modelos de IA responsable y explicable, capaces de transparentar cómo y por qué se toman ciertas decisiones. A esto se suma la necesidad de integrar la ética y la privacidad desde el diseño, no como un requisito legal, sino como parte estructural de cualquier proyecto tecnológico.
Te puede interesar
#Ambiente I El hallazgo confirma que hay especies desconocidas en ecosistemas frágiles. ¿Dónde fue el descubrimiento? #LéaloEnET: https://t.co/z252DHJXvb pic.twitter.com/EyI37BQ64w
— El Telégrafo Ecuador (@el_telegrafo) January 26, 2026