En el análisis sobre la utilización de la inteligencia artificial en Seguros, hemos querido conocer cuáles son los errores más habituales que se cometen. Esto es lo que nos cuentan el corredor de seguros Carlos Lluch; el experto en nuevos modelos de negocio, estrategia, innovación y tecnología José Luis Casal, y Román Mestre, socio fundador de MelmacIA.
Carlos Lluch
- En relación con la Pericia, el sector asegurador tiene mucho interés en el café para todos. Eso, por supuesto, chirría con la legislación vigente en materia de libertad de precios y es poco amigable con las situaciones no estándar. Algo que la IA posiblemente agravará y, con ello, sufrirán los peritos la queja de los talleres y estos de los asegurados. Con el tiempo, puede que haya acciones ‘lobbísticas’ y una esperable confrontación en perjuicio de todos.
- En la atención al público hay que tener en cuenta que una parte no pequeña del mercado está compuesta por gente mayor y otra que no está adaptada en exceso a una relación tecnológica con sus proveedores de servicios. En muchas empresas de telefonía, energía, etc., se están produciendo incidencias porque sus bots de servicio no son empáticos con este segmento de mercado. En seguros corremos ya el riesgo de sumar descontento.
- Algunas aseguradoras están olvidando que los corredores son sus clientes mayoristas y las vías de contacto -con IA- que ofrecen son inadecuadas, suponen un sobrecoste operacional estúpido y una dilación de las soluciones que dinamita la relación. ¿Le ponemos precio a ese supuesto ahorro de costes?
Carlos Lluch: «En relación con la Pericia, el sector asegurador tiene mucho interés en el ‘café para todos’. Eso, por supuesto, chirría con la legislación vigente en materia de libertad de precios y es poco amigable con las situaciones no estándar».
- Partir de datos de escasa calidad no hará sino producir resultados estúpidos, inútiles o inadecuados.
- Caer en la tentación, fácil, de perder de vista la esencia del seguro: la mutualización de riesgos. Una IA puede servir para etiquetar, para generar de forma rápida grupos de riesgos o de clientes. Existe un sesgo entre los humanos del sector que se traslada a la IA: los buenos seguirán siendo buenos y los que fueron malos seguirán siéndolo. Salvo excepciones, ni lo uno ni lo otro es cierto, pero una IA está programada para pensar así.
- Entender que el manual funciona siempre: cualquier perito sabe que, a veces, una tuerca no se deja y hay que invertir mucho tiempo en aflojarla. La calidad de la relación con el taller dependerá de que eso se comprenda y, para ello, una herramienta que tiende al «café para todos» no es la mejor aliada.
- No invertir en personas que cuenten con capacitación y empoderamiento suficiente para deshacer entuertos causados por la IA y para retroalimentar a esta, enseñándole cuando se equivoca.
José Luis Casal
- Muchas compañías se apresuran a implementar soluciones de IA sin asegurarse primero de que sus datos sean de alta calidad y estén bien estructurados. Según Gartner, las organizaciones estiman que la mala calidad de los datos les cuesta un promedio de 15 millones de dólares anuales. En el sector asegurador, donde las decisiones basadas en datos pueden tener consecuencias significativas, este error puede ser particularmente costoso.
- Algunas compañías de seguros adoptan la IA simplemente por seguir la moda, sin una estrategia clara de cómo se alinea con sus objetivos de negocio. Esto puede llevar a proyectos muy costosos y que no aportan valor real. Un enfoque estratégico debería comenzar con la identificación de problemas específicos del negocio que la IA puede ayudar a resolver.
José Luis Casal: «Muchas compañías se apresuran a implementar soluciones de IA sin asegurarse primero de que sus datos sean de alta calidad y estén bien estructurados»
- La introducción de la IA también requiere una transformación cultural en la organización. Muchas compañías subestiman la importancia de formar a su personal para trabajar eficazmente con estas nuevas tecnologías. Según un informe de PwC, el 60% de los ejecutivos cree que la falta de habilidades es el mayor desafío para la adopción de IA en sus organizaciones.
- En la carrera por implementar IA, algunas compañías pasan por alto las consideraciones éticas, lo que puede llevar a decisiones que, aunque técnicamente correctas, pueden ser éticamente cuestionables. Por ejemplo, el uso de datos de redes sociales para evaluar riesgos sin el consentimiento explícito del cliente.
- Y, en esta línea, no comunicar claramente a los clientes cómo y cuándo se está utilizando IA en la toma de decisiones puede generar desconfianza. Las aseguradoras deben ser proactivas en todo esto.
Román Mestre:
- No colaborar más con especialistas en ciencia de datos externos. Las compañías tienden a considerar los proyectos de ciencia de datos como estratégicos para ellas y prefieren confiar en los equipos internos. Recelan en compartir cierta información con terceros y prefieren ‘resolver’ internamente el reto. Deberían ser más colaborativas, no tener miedo a experimentar más y testar nuevas propuestas. No hacerlo, puede suponer seguir aplicando sobre las mismas bases de datos de siempre las prácticas tradicionales conocidas.
Román Mestre: «Las compañías tienden a considerar los proyectos de ciencia de datos como estratégicos para ellas y prefieren confiar en los equipos internos. Deberían ser más colaborativas»
→ Esta es la segunda entrega de la serie que estamos publicando sobre el impacto de la Inteligencia Artificial en el Sector Asegurador. En la primera analizamos las infinitas posibilidades que ofrece esta tecnología.