Los principios éticos de la Inteligencia Artificial en el Seguro
La inteligencia artificial (IA) se está desarrollando de manera importante en los últimos años y el seguro no es ajeno a su enorme potencial para transformar la sociedad y el propio sector. Los beneficios de su utilización son cada vez más reconocidos y la tecnología que hay detrás se ha convertido en un área de importancia estratégica para la Unión Europea, siendo hoy uno de sus principales motores de desarrollo económico.
Teniendo en cuenta el enorme impacto que la IA está teniendo en la sociedad es fundamental que su utilización genere confianza. Para ello es necesario, tal y como señala la Comisión Europea, que la IA “se asiente en los valores y derechos fundamentales europeos, como son la dignidad humana y la protección de la privacidad”.
Teniendo en cuenta el enorme impacto que la IA está teniendo en la sociedad es fundamental que su utilización genere confianza. Para ello es necesario, tal y como señala la Comisión Europea, que la IA “se asiente en los valores y derechos fundamentales europeos, como son la dignidad humana y la protección de la privacidad”.
La Comisión Europea considera que una IA “fiable” debe cumplir 7 requisitos clave: acción y supervisión humana, solidez técnica y seguridad, gestión de la privacidad y los datos, transparencia, diversidad, no discriminación y equidad, bienestar social y ambiental y responsabilidad proactiva.
El sector asegurador es consciente de que un mal uso de la IA o la ausencia de principios éticos en su aplicación puede conllevar una serie de riesgos potenciales. Con el objetivo de reforzar la confianza y el compromiso del sector por un uso ético de la IA, UNESPA ha elaborado seis principios que se enumeran a continuación:
