Dans son récent rapport intitulé « La révolution de l’IA dans les services financiers », l’agence de renseignement économique basée au Luxembourg, VitalBriefing, expose le pouvoir transformateur de la technologie pour un centre financier tel que le Luxembourg.
Comme le souligne Nasir Zubairi, PDG de la House of Financial Technology du Luxembourg, dans le rapport : « Bien que l’IA puisse générer des gains d’efficacité significatifs dans des domaines tels que le service client et la gestion des risques, la valeur réelle débloquée dépendra de l’intégration harmonieuse de ces technologies et du cadre réglementaire dans lequel elles opèrent. »
En effet, des questions abondent en ce qui concerne l’IA, mais voici quelques-unes des façons dont on s’attend à ce qu’elle transforme l’industrie.
Traitement de vastes quantités de données
Comme le note VitalBriefing, l’apprentissage automatique n’est pas seulement un « outil clé pour la détection de la fraude dans les prêts, il s’étend également aux activités des institutions financières par sa capacité à trier d’énormes quantités de données de transactions pour détecter des modèles inhabituels pouvant indiquer une activité suspecte et potentiellement des transactions frauduleuses ». Les auteurs se demandent si la technologie pourrait être la « solution miracle pour l’obstacle KYC/AML ».
Bien que les défis de la prise de décision puissent être atténués avec l’IA, et que la technologie puisse surpasser les décisions humaines en matière d’investissements, par exemple, les deepfakes sont de plus en plus difficiles à détecter et la prudence est de mise.
Autres gains en efficacité
Qu’il s’agisse de rendre la collecte de documents plus efficace ou de permettre au service client de faire des progrès efficaces, les systèmes d’IA devraient faciliter certains fardeaux. Le rapport indique que les régulateurs en tiennent également compte, avec des efforts déjà en cours dans divers marchés pour déterminer comment la technologie peut aider à lutter contre la fraude ou à améliorer les systèmes de paiement, par exemple.
Réduction de l’écart des compétences
Les discussions sur l’IA portent souvent sur le degré auquel l’IA pourrait remplacer certains emplois et son influence sur la scalabilité. Des entreprises comme PwC Luxembourg font partie de celles qui ont investi dans l’exploration de la technologie, et son associé directeur adjoint, Olivier Carré, est cité dans le rapport comme disant : « Si nous pouvions libérer une partie de cette puissance cérébrale pour effectuer des tâches à plus forte valeur ajoutée, cela devrait être bénéfique pour la situation globale des ressources au Luxembourg. »
Des domaines tels que le service client peuvent en bénéficier, par exemple, en filtrant les tâches plus banales. Cependant, l’IA nécessite toujours une supervision humaine, ce qui demandera également des compétences spécifiques.
Améliorations pour les clients
La promesse de systèmes de paiement plus rapides ou de produits plus personnalisés profiterait finalement aux clients. Cependant, cela s’accompagne de « l’impératif plus large de transparence et d’honnêteté dans l’interaction entre les clients et les institutions », notent les auteurs, citant Zubairi : « La tension entre les droits à la vie privée et les avantages de l’accès aux données est palpable. Bien que les modèles d’IA prospèrent sur de vastes ensembles de données, il est crucial de veiller à ce que les droits individuels ne soient pas compromis. »
Promouvoir la durabilité
Les auteurs du rapport qualifient l’intersection de l’IA et de l’ESG de « malaisée » : bien que l’IA abaissera sans aucun doute les barrières financières liées au climat et améliorera les perspectives connexes, capable une fois de plus de trier d’énormes quantités de données, il sera ici encore crucial d’avoir une contribution humaine. Comme le souligne Romit Choudhury, co-fondateur de Softbrik : « Je m’attends à ce que le suivi des données d’émission par l’internet des objets et des processus périphériques tels que la comptabilité du carbone devienne plus transparent avant que les niveaux de confiance de nos modèles ne soient suffisamment raisonnables pour vérifier soigneusement les exagérations manipulées. »