Le 2 juillet 2024 - L’IA est le sujet du moment. Elle est partout.
On l'utilise déjà tous les jours. Ce chatbot à qui l’on parle de notre colis
perdu ? Propulsé par l'IA conversationnelle. Les articles « recommandés » sous
nos achats Amazon les plus fréquemment effectués ? Piloté par des algorithmes
AI/ML (apprentissage automatique). On utilise même l’IA générative pour nous
aider à rédiger nos publications ou e-mails. Mais où cela s’arrête-t-il ?
L’IA peut optimiser les processus métier et
réduire le temps consacré aux tâches qui limitent la productivité générale des employés et de
l’entreprise. Les entreprises adoptent déjà l’IA pour des tas de tâches, depuis
la lecture des CV, l’identification d’anomalies dans les ensembles de données
clients ou la rédaction de contenu pour les réseaux sociaux. Cela se fait en
une fraction du temps nécessaire aux humains. Si un diagnostic et une
intervention précoces sont essentiels, l’utilisation de l’IA peut avoir un
impact très positif à tous les niveaux. Par exemple, un test sanguin assisté
par l’IA peut aider à prédire la maladie de Parkinson (predict Parkinson's disease) jusqu’à sept ans avant l’apparition des symptômes.
L’IA peut également aider les services
chargés du maintien de l’ordre, notamment lors de l’identification de scènes de
crime et la prédiction des tendances possibles. Les outils basés sur l’IA jouent
aussi un rôle dans la lutte contre la criminalité et les menaces en ligne et
aident les professionnels de la cyber-sécurité (helping cybersecurity professionals).
Grâce à l’IA les entreprises gagnent du temps
et de l’argent, et ce n’est pas neuf. Les systèmes basés sur l’IA contribuent à
éliminer le risque d’erreur humaine. Nous pouvons tous faire des erreurs,
surtout après cinq cafés, trois heures de sommeil et une échéance imminente.
Les systèmes basés IA peuvent fonctionner 24 heures sur 24. Ainsi, ils ont un niveau
de fiabilité qu’on n’obtient pas, même avec l’humain le plus précis et
méthodique.
Mais si l’IA réduit les erreurs, elle n’est
pas infaillible. Elle peut faire des erreurs et « halluciner » ; débiter des
mensonges tout en les présentant comme correct, surtout s'il y a des problèmes
avec les données utilisées pour la créer ou avec l'algorithme lui-même. La
qualité des systèmes d’IA dépend de la qualité des données de départ ce qui
nécessite une expertise et une surveillance humaines.
L’IA n’est pas intrinsèquement biaisée, elle
peut amplifier les erreurs présentes dans les données avec lesquelles elle est
créée. Un outil d’IA entraîné avec des données ‘propres’ et impartiales peut
produire des résultats basés purement sur les données et remédier à une prise
de décision humaine biaisée. Mais garantir l’équité et l’objectivité des
systèmes d’IA demande des efforts constants de conservation des données, de
conception d’algorithmes et de surveillance continue.
Une étude de 2022 démontre que 54 % des
leaders en technologie étaient très ou extrêmement préoccupés par les erreurs
de l’IA. Suite à l'utilisation d'ensembles de données erronées par une
compagnie d'assurance de l'Oregon, les femmes payaient leur assurance auto
environ 11,4 % de plus que les hommes - le reste étant pareil. Cela peut ternir
une réputation et un faire perdre des clients.
Lorsqu’il s’agit de données personnelles, des
acteurs malveillants essayent de contourner les protocoles de confidentialité
et d’accéder à ces données. Même s’il existe des environnements de données plus
sécurisé en matière d’outils et de systèmes, les organisations doivent être
très vigilantes quant à toute faille de cyber-sécurité et plus particulièrement
avec les données supplémentaire de l’IA.
Mais l’IA ne capte pas les émotions comme les
humains. Cela peut avoir un impact sur l'expérience client/utilisateur, comme pour le
jeu World of Warcraft, qui a perdu des millions de joueurs en remplaçant son
service client - autrefois des vraies personnes qui entraient dans le jeu pour
montrer aux joueurs comment faire - par des robots IA, manquant d'humour et
d'empathie.
Avec ses données limitées et son manque de
contexte, l’IA peut générer des problèmes d’interprétation. Les experts en
cyber-sécurité peuvent avoir une connaissance approfondie d’un acteur menaçant
spécifique, leur permettant d’identifier les signes avant-coureurs qu’une
machine ne peut pas faire si cela ne s’aligne pas parfaitement avec son
algorithme programmé. A long terme, cela peut avoir d’énormes conséquences,
tant pour l’entreprise que pour ses clients.
Même si l’IA manque de contexte et de
compréhension des données d’entrée, les humains ne comprennent pas comment
fonctionnent leurs systèmes d’IA. Si l’IA fonctionne dans des « boîtes noires
», il n’y a pas de transparence sur comment et pourquoi l’outil a produit de
tels résultats ou décisions. L’incapacité d’identifier les « rouages » peut
amener les gens à remettre sa validité en question. Si quelque chose ne va pas
ou si les données d’entrée sont toxiques, le scénario « boîte noire » rend
difficile l’identification, la gestion et la solution aux problèmes.
Contrairement à l’IA, l’humain s’adapte à des
situations évolutives et pense de manière créative. Sans règles prédéfinies,
ensembles de données limités et suggestions utilisées par l'IA, nous pouvons
utiliser nos initiatives, connaissances et expériences pour résoudre des problèmes
en temps réel. C’est important pour prendre des décisions éthiques et de
l’équilibre entre objectifs commerciaux (ou personnels) et impact sociétal. Les
outils d’IA utilisés en recrutement peuvent ne pas prendre en compte les
implications du rejet de candidats sur base de préjugés algorithmiques, ni les
conséquences supplémentaires que cela peut avoir sur la diversité et
l’inclusion sur le lieu de travail.
Même si l’IA peut fournir une liste de noms de
marques potentielles, ce sont les personnes derrière la marque qui comprennent
leur public et savent ce qui est le mieux. L’empathie et la capacité de « lire leur
l’environnement », permet aux humains de se connecter avec les autres,
favorisant des relations plus solides avec les clients, les partenaires et les
parties prenantes. C’est particulièrement utile dans le service client. Un
service médiocre peut entraîner une perte de fidélité et de confiance en la
marque.
Les humains peuvent s’adapter rapidement à
des conditions en évolution. S’il faut une déclaration urgente de l’entreprise
sur un événement récent ou s’il faut s’éloigner d’un message ciblé d’une
campagne, on a besoin d’un humain. La reprogrammation et la mise à jour des
outils d’IA prennent du temps, ce qui, dans certaines situations, n’est pas
toujours possible.
L’approche la plus efficace en cyber-sécurité
c’est l’utilisation des atouts de l’IA et des humains : l’IA pour gérer
l’analyse et le traitement de données à grande échelle et l’expertise humaine
pour la prise de décision, la planification stratégique et les communications.
L’IA s’utilise comme un outil pour aider et améliorer, et non pour remplacer
l’humain.
L'IA est au centre des produits ESET et
permet à ses experts en cyber-sécurité de concentrer leur attention sur la création
des meilleures solutions pour ses clients.
Découvrez comment ESET utilise l'IA (Learn how ESET leverages AI) et l'apprentissage automatique pour la détection, l'investigation et la
réponse aux menaces.