Ignorer et passer au contenu
Pourquoi les grandes compagnies d'assurance s'inquiètent-elles soudainement des défaillances de l'IA ?

Pourquoi les grandes compagnies d'assurance s'inquiètent-elles soudainement des défaillances de l'IA ?

La nouvelle peur en coulisses : l'IA qui déraille

L'intelligence artificielle ne se contente pas d'alimenter des applications innovantes, des publicités plus ciblées et des jeux plus rapides. Elle devient aussi, discrètement, un facteur de risque majeur pour les grandes compagnies d'assurance. Après une série d'échecs coûteux et très médiatisés liés à l'IA, les principaux assureurs commencent à revoir le niveau de risque qu'ils sont prêts à assumer.

En clair, ils cherchent à limiter leur exposition aux risques. Autrement dit, ils cherchent à minimiser les pertes financières potentielles en cas de défaillance massive des systèmes d'IA. C'est un peu comme fixer un plafond de dégâts maximum lorsqu'un boss peut anéantir toute votre équipe si vous n'êtes pas vigilant.

Le problème majeur ne réside pas dans une simple erreur d'IA isolée. Les assureurs craignent des pertes systémiques, c'est-à-dire des pertes qui touchent simultanément de nombreuses entreprises ou personnes utilisant des outils d'IA ou des plateformes cloud similaires. Si un système critique dysfonctionne, les dégâts peuvent se propager rapidement et de manière identique à différents clients.

C’est très différent des problèmes d’assurance classiques, comme un simple accident de voiture ou une canalisation qui éclate dans un bâtiment. L’IA peut dysfonctionner de manière globale, synchronisée et très difficile à prévoir.

Pourquoi les risques liés à l'IA sont-ils si difficiles à assurer ?

Du point de vue des assurances, l'IA mélange plusieurs ingrédients inquiétants à la fois.

  • Défaillances corrélées : De nombreuses entreprises utilisent désormais les mêmes fournisseurs d’IA, la même infrastructure cloud et des modèles de langage complexes similaires. Si une mise à jour de modèle échoue ou si un système central est piraté, des milliers d’entreprises peuvent être touchées simultanément.

  • La prise de décision opaque de l'IA moderne est comparable à celle d'une boîte noire. Même ses créateurs peinent parfois à expliquer ses motivations. Il est donc difficile d'évaluer son niveau de risque réel.

  • Passage à l'échelle rapide : un bug dans un logiciel ancien peut endommager un seul serveur. Un bug dans un modèle d'IA qui prend des décisions à l'échelle d'un réseau mondial peut affecter des millions d'utilisateurs en quelques minutes.

  • Les erreurs liées à l'IA peuvent avoir des répercussions juridiques et réglementaires, notamment des atteintes à la vie privée, des plaintes pour biais et discrimination, ou des amendes réglementaires. Ces coûts supplémentaires sont souvent pris en charge par les assurances.

Les assureurs ont déjà constaté des incidents retentissants qui illustrent la gravité potentielle de la situation. Citons par exemple les systèmes d'IA qui donnent des conseils médicaux dangereux, les robots de trading automatisés qui provoquent des krachs boursiers éclairs et les moteurs de recommandation qui amplifient la désinformation. Chacun de ces incidents peut entraîner des pertes considérables pour de nombreux clients simultanément.

Face à la multiplication de tels incidents, les assureurs commencent à craindre de sous-évaluer gravement le risque. Le secteur, initialement enthousiaste, cède donc la place à la prudence et s'efforce de maîtriser les risques liés à l'IA qu'il prend réellement.

Comment les assureurs circonscrivent les risques liés à l'IA

Pour se protéger, les grandes compagnies d'assurance prennent des mesures discrètes. Si vous utilisez des outils d'IA, développez des produits d'IA ou suivez simplement les tendances technologiques, il est important de comprendre ces changements.

  • Exclusions et limites claires concernant l'IA : De nombreuses polices d'assurance sont en cours de révision afin d'exclure certains types de défaillances liées à l'IA ou de plafonner les indemnisations lorsque l'IA est impliquée. Certains contrats comportent désormais des clauses spécifiques relatives à l'IA qui précisent les scénarios couverts et ceux qui ne le sont pas.

  • Des produits spécifiques à l'IA : au lieu d'intégrer les risques liés à l'IA dans les couvertures classiques de cyberassurance ou de responsabilité professionnelle, certains assureurs conçoivent des polices dédiées à l'IA. Celles-ci peuvent présenter des tarifs, des conditions et des exigences plus strictes pour les acheteurs différents.

  • Des questions plus approfondies lors de la souscription : lorsqu’une entreprise demande une couverture, les assureurs posent désormais des questions plus poussées sur son utilisation de l’IA. Par exemple, quels modèles sont utilisés, comment ils sont testés, quelles sont les garde-fous en place et avec quelle rapidité elle peut annuler une mise à jour défectueuse.

  • Réassurance et partage des risques : les assureurs souscrivent eux-mêmes des assurances auprès d’autres entreprises appelées réassureurs. Ces réassureurs sont également préoccupés par l’IA. Ils militent pour de meilleures données, des limites plus strictes et des clauses contractuelles plus claires afin qu’un incident majeur lié à l’IA n’entraîne pas la faillite de plusieurs entreprises de la chaîne.

  • Modélisation de scénarios pour les chocs systémiques : les actuaires et les équipes de gestion des risques élaborent des modèles de simulation pour les catastrophes liées à l’IA. Par exemple, que se passerait-il si un modèle largement utilisé se mettait à générer des conseils financiers dangereusement erronés pendant une semaine ? Ou encore, si un assistant de programmation IA introduisait une faille de sécurité dans des milliers d’applications ? Ces scénarios aident les assureurs à déterminer le niveau d’exposition acceptable.

Le point commun est le contrôle. Les assureurs savent qu'ils ne peuvent pas totalement éviter l'IA. Leurs clients en dépendent et toute l'économie numérique évolue dans ce sens. Mais ils veulent éviter qu'une défaillance de l'IA ne se traduise par une crise majeure pour le secteur de l'assurance.

Ce que cela signifie pour les entreprises et les développeurs

Si vous développez ou déployez des solutions d'IA, cette évolution du monde de l'assurance finira par vous concerner.

  • Plus de paperasse, mais aussi plus de clarté. Attendez-vous à des questionnaires et des audits plus détaillés concernant votre infrastructure d'IA, vos données d'entraînement, votre processus de test et votre supervision humaine. En contrepartie, vous obtiendrez des réponses plus précises sur ce qui est réellement couvert.

  • Les entreprises qui prennent la sécurité de l' IA au sérieux (journalisation des activités, tests d'intrusion, vérification des biais et plans de restauration) devraient pouvoir négocier de meilleures conditions. Celles qui se contentent d'intégrer un modèle performant et d'espérer que tout se passe bien paraîtront beaucoup plus risquées.

  • Des frictions contractuelles avec les clients pourraient survenir. Vos clients pourraient commencer à s'interroger sur la manière dont votre assurance réagit aux défaillances de l'IA. Parallèlement, vos propres assureurs pourraient imposer des limites qui restreindraient vos engagements dans les accords de niveau de service. Maîtriser les bases du vocabulaire de l'assurance lié à l'IA deviendra alors indispensable à votre activité.

  • Le marché des outils d'analyse des risques liés à l'IA est en pleine expansion. Face à la demande croissante des assureurs pour des contrôles plus rigoureux, de nouveaux outils et plateformes permettant de surveiller le comportement de l'IA, de suivre les incidents et d'en fournir l'explication se développent. Les startups de ce secteur pourraient trouver auprès des assureurs des partenaires majeurs ou des utilisateurs précoces.

Vu de l'extérieur, on pourrait croire que les assureurs sont simplement paranoïaques. Mais de leur point de vue, l'IA représente un risque systémique classique : concentrée sur quelques grandes plateformes, fortement interconnectée et susceptible d'engendrer d'énormes pertes corrélées en cas de défaillance.

En résumé, l'IA est désormais suffisamment puissante pour que les investisseurs misant sur les catastrophes rares la prennent très au sérieux. Tandis que les grands assureurs limitent leurs risques liés aux défaillances de l'IA, tous ceux qui développent des solutions basées sur cette technologie en subiront les répercussions sur les contrats, les prix et les exigences en matière de sécurité.

Article et image originaux : https://www.tomshardware.com/tech-industry/artificial-intelligence/insurers-move-to-limit-ai-liability-as-multi-billion-dollar-risks-emerge

Panier 0

Votre carte est actuellement vide.

Commencer à magasiner