Pourquoi l'IA devient plus puissante: implications pour les entreprises et la société

Bio professionnelle: Micki Boland est un guerrier mondial de la cybersécurité et évangéliste avec Check Point's Bureau du directeur technique. Micki a plus de 20 ans d'expérience dans les TIC, la cybersécurité, les technologies émergentes et l'innovation. L'objectif de Micki est d'aider les clients, les intégrateurs de systèmes et les fournisseurs de services à réduire les risques grâce à l'adoption des technologies émergentes de cybersécurité. Micki est un CISSP ISC2 et titulaire d'une Maîtrise Science sciences en commercialisation de la technologie de l'Université du Texas à Austin et d'un MBA avec une concentration en sécurité mondiale de l'East Carolina University.

Dans cette interview exclusive avec l'expert en la matière Micki Boland, CyberTalk.org révèle pourquoi l'IA a un moment en ce moment, les implications commerciales et comment les organisations devraient faire face aux menaces posées par les nouvelles technologies.

L'IA existe depuis des décennies. Pourquoi et comment est-il récemment devenu plus puissant?

Il est vrai que l'Intelligence artificielle (IA) existe depuis des décennies, remontant à la Seconde Guerre mondiale. Alan Turing est considéré comme un contributeur important à l'IA et le “test de Turing " est toujours d'actualité le test d'auto-apprentissage de l'IA.

Bien que nous ayons l'IA avec des algorithmes d'apprentissage automatique dans la science de la décision depuis un certain temps, deux choses permettent actuellement de faire de grands progrès dans l'avancement de l'IA: Premièrement, les réseaux de neurones font progresser l'IA générative et deuxièmement, le saut quantique de la puissance de calcul.

Des quantités massives de puissance de calcul et de traitement sont nécessaires pour l'IA générative. Exemple concret: dans un article d'ingénierie intéressant, du 27 février de cette année, l'article a identifié que de nombreux modèles à grand langage utilisent la puce A100 de NVIDIA,qui offre une amélioration des performances 20X par rapport aux générations précédentes et est “la bande passante mémoire la plus rapide au monde à plus de 2 téraoctets par seconde (To/ s)”. NVIDIA propose l'IA en tant que service aux fournisseurs de services de cloud public ainsi qu'aux entreprises.

En tant que sujet le plus à la mode en technologie, l'excitation est-elle justifiée, à votre avis?

L'annonce de ChatGPT avec le grand modèle de langage GPT-3.5 par OpenAI (openai.io) le 30 novembre de l'année dernière a fait la une des journaux et a attiré l'attention des médias grand public, pas seulement de l'industrie technologique. Je me souviens, nous étions à une réunion en soirée avec un client financier lorsque nous avons reçu l'annonce sur Tech Wire et tout le monde spéculait sur ce que ChatGPT apporterait. Depuis cette annonce, nous avons assisté à une adoption massive de ChatGPT GPT-3.5.

A Tooltester.com rapport au 20 mars 2023 a donné quelques statistiques OpenAI: ChatGPT compte 1 milliard de visiteurs mensuels sur son site Web et environ 100 millions d'utilisateurs actifs. D'autres adopteront avec la sortie du nouveau grand modèle de langage GPT-4, qui, selon OpenAI, sera formé sur 100 billions de paramètres et pourra incorporer du texte et des images.

Les gens ordinaires adoptent ChatGPT pour jouer, écrire des histoires pour leurs enfants, réécrire des documents, créer de nouvelles communications, générer de nouveaux contenus, répondre à des questions et recueillir des détails pour la recherche. OpenAI Dall-E 2 existe depuis un certain temps et est amusant pour créer du contenu et des images numériques nouveaux et intéressants. Pour ma part, je pense que les outils d'IA générative pour le développement de code comme Openai Codex, qui peut écrire du code dans une douzaine de langues, et Polycoder, une alternative en version open source, et Tabnine, qui est un outil de complétion automatique de code IDE, sont les plus intéressants en termes de récompense et de gain, bien que potentiellement les plus risqués de tous.

Pouvez-vous parler des façons les plus percutantes dont l'IA aide à transformer les entreprises?

Les entreprises tirent depuis longtemps parti de l'IA grâce à l'apprentissage automatique, aux réseaux de neurones et à l'analyse de données. Beaucoup ont leurs propres structures autour de l'IA, avec des data scientists et une gouvernance autour de cas d'utilisation spécifiques liés à l'utilisation de l'IA pour la business intelligence, l'analytique, la télémétrie, l'IA cloud...etc. Cependant, avec le ChatGPT d'OpenAI, qui peut être facilement adopté par les équipes et les individus à leurs propres fins, il n'y a pas de cas d'utilisation spécifiques de gouvernance ou d'entreprise. Sans contraintes liées à l'utilisation de ChatGPT en entreprise, les équipes et les individus peuvent trouver de nombreuses utilisations intéressantes et des techniques permettant de gagner du temps.

Une chose qui est très convaincante est d'utiliser ChatGPT pour obtenir de la valeur et du sens à partir des connaissances générées par l'homme qui existent au sein des entreprises: sites Web et wikis internes, bases de connaissances, référentiels, questions et réponses, ainsi que des sources de données non structurées. Utiliser ChatGPT pour la formation en entreprise pourrait être intéressant. Les personnes qui apprennent à coder des logiciels peuvent utiliser l'IA pour les aider à dépanner leur code. Article de Forbes Top 10 des utilisations de ChatGPT dans le secteur Bancaire identifie d'autres cas d'utilisation convaincants: service client, détection des fraudes, assistance virtuelle, conformité, gestion de patrimoine et intégration des clients. À titre de mise en garde, les organisations d'entreprise ne comprennent pas toujours le risque d'adopter une IA générative et peu d'organisations ont des politiques GCR, légales ou d'entreprise concernant l'utilisation acceptable des plateformes d'IA générative.

Quelles sont les initiatives, les effets, les histoires les plus excitantes...etc. que vous avez entendu parler ou vu en relation avec ChatGPT?

La chose la plus folle que j'ai lue est l'endroit où ChatGPT GPT-4 a été mis à l'épreuve et a réussi les examens académiques, bien qu'il y ait eu des écarts dans les scores résultants: Barre uniforme, SAT et GRE (drôle, il a mal performé au test d'écriture).

Quels sont les rendements attendus associés à l'application de technologies basées sur l'IA?

J'utiliserai les quatre cas d'utilisation réels axés sur la cybersécurité de Check Point Software Technologies pour le ML/ DL, qui offrent d'énormes rendements positifs pour le secteur de la cybersécurité. L'IA/ ML offre des innovations en matière d'efficacité, d'efficience, de réduction des faux positifs; amélioration de la détection et de la prévention, y compris la détection des attaques à première vue et à zéro jour; détection des anomalies et renseignements sur les menaces pour fournir une détection et une atténuation des menaces tenant compte du contexte; identification et attribution rapides des familles de logiciels malveillants (ADN des logiciels malveillants), y compris les variantes de logiciels malveillants vues pour la première fois; classification rapide des documents et des images.

Avez-vous vu des conséquences imprévues de l'application d'outils basés sur l'IA dans les affaires et si oui, pouvez-vous en parler un peu?

Ahh, je pense qu'il y a déjà des conséquences involontaires documentées de l'utilisation de ChatGPT. Un cas publié dans The Vanderbilt Hustler, le journal officiel de l'Université Vanderbilt, alléguait que deux professeurs de l'Université Vanderbilt avaient utilisé ChatGPT pour créer une lettre aux étudiants afin de partager des informations concernant la fusillade sur le campus de la Michigan State University. Les étudiants de Vanderbilt ont découvert que la lettre distribuée par le professeur avait été écrite par ChatGPT et que les étudiants auraient été perturbés par le manque de connexion personnelle et d'empathie. Les professeurs ont dû se retirer pendant l'examen pour ne pas avoir utilisé le processus typique d'examen des communications.

D'autres conséquences imprévues peuvent survenir lorsqu'un utilisateur entre des données client, commerciales ou référentielles restreintes, protégées ou sensibles dans ChatGPT ou toute plate-forme d'IA générative. Les rapports des médias open source indiquent que Walmart, Microsoft, Amazon et d'autres sociétés ont averti leurs employés dans des notes écrites et ont créé des directives d'entreprise concernant les violations potentielles de la confidentialité lors de l'utilisation de l'IA générative.

Comment les développeurs de technologies et les chefs d'entreprise peuvent-ils aborder la question de biais cela a été trouvé dans certains outils basés sur l'IA?

Un gros inconvénient de l'IA est le biais des ensembles de données, le biais des algorithmes et le fait que les décisions de machine learning manquent intrinsèquement de conscience contextuelle. OpenAI a publiquement révélé que ChatGPT était partial et s'est excusé publiquement. La MIT Technology Review a évalué ChatGPT GPT-4 et a identifié que “Bien qu'OpenAI ait amélioré cette technologie, elle ne l'a pas corrigée d'une manière longue portée”.

Que devraient savoir d'autre les PDG et les équipes de direction sur le succès par rapport à l'échec dans l'application des technologies basées sur l'IA?

Les PDG et les équipes de direction doivent connaître les limites et les contraintes de l'IA, en particulier en ce qui concerne son manque de raisonnement abstrait et de bon sens du monde réel. Les algorithmes nécessitent d'énormes ensembles de données d'entraînement pour apprendre et une fois créés, ils sont fragiles et échoueront lorsqu'un scénario est légèrement différent de celui de l'ensemble d'entraînement. Ils sont rigides et ne peuvent pas s'adapter après la formation initiale et il est parfois difficile d'interpréter leurs décisions, ce qui signifie qu'ils sont opaques. L'opacité algorithmique peut être particulièrement préjudiciable avec les modèles de machine LEARNING dans des domaines présentant un intérêt public maximal, tels que les soins de santé.

Ce préjudice peut se manifester de plusieurs manières. Une recommandation de traitement erronée basée sur un modèle de ML peut entraîner des conséquences potentiellement désastreuses pour un patient ou un groupe. L'opacité des modèles ML signifie que la raison de l'erreur peut être introuvable. L'IA n'est pas “l'oracle”, elle ne peut pas répondre à toutes les questions et ne doit pas être utilisée pour prendre des décisions pour les humains, en particulier celles qui ont le potentiel d'avoir un impact sur des vies humaines. Les leaders en éthique technologique doivent toujours mettre en garde contre les biais dans l'IA; biais des ensembles de données, biais des algorithmes et que les décisions de machine learning sont biaisées, car elles manquent intrinsèquement de conscience contextuelle.

Qu'est-ce que l'IA peut nous apprendre sur ce que signifie être humain selon vous?

Les progrès de l'IA générative exigent une meilleure focalisation sur l'utilisation éthique de l'IA et de l'IA centrée sur l'humain. Plus important encore, les humains devraient être au centre de l'IA. L'intelligence artificielle existe pour aider les humains, et non l'inverse. Les humains doivent toujours contrôler quand et comment ils veulent utiliser l'IA. Les humains doivent être sensibilisés à toutes les IA " sous le capot.” Je recommande le livre IA Centrée sur l'Humain, par Ben Shnéiderman.

Vos réflexions sur l'avenir de ChatGPT et des technologies similaires?

Facile, j'ai demandé à ChatGPT! Non vraiment, ma propre prédiction est que nous continuerons à voir une explosion des plates-formes d'IA génératives émergentes et que nous les utiliserons dans tous les services et applications partout. Europol prévient que d'ici 2026, 90% de tous les contenus sur Internet seront synthétiques et générés par l'IA générative. Et pas tout pour de bon. L'IA générative est à l'origine des deepfakes et des voicefakes, elle est déjà utilisée par des gangs de cybercriminels pour des usurpations d'identité de PDG et des attaques frauduleuses, créant de la pornographie non consensuelle, etc.

Y a-t-il autre chose que vous aimeriez partager avec le CyberTalk.org public?

En tant que guerrier de la cybersécurité, j'ai un appel à l'action pour que toutes les organisations forment un conseil ou travaillent sous les auspices de la direction de la gestion des risques, de la GRC, du conseiller juridique général et du conseil d'administration et des dirigeants pour créer un Cadre de gestion des risques pour l'utilisation de l'IA générative. Le NIST a un bon RMF pour l'IA qui peut être un bon point de départ pour les entreprises. https://www.nist.gov/itl/ai-risk-management-framework

Si votre organisation autorise ses employés à utiliser ChatGPT et d'autres plates-formes d'IA génératives sur les appareils et les réseaux d'entreprise, informez immédiatement tous les employés du risque de violation de la confidentialité de l'entreprise et créez des politiques d'utilisation acceptables et des garde-fous pour l'utilisation de ces plates-formes. Intégrez cette partie à la formation en éthique d'entreprise et en cybersécurité DÈS que possible et examinez et évaluez en permanence.

Pour plus d'informations de l'expert Micki Boland, veuillez consulter CyberTalk.org couverture passée de ici.

Vous voulez vous tenir au courant des tendances technologiques? Découvrez le CyberTalk.org infolettre! Inscrivez-vous dès aujourd'hui pour recevoir des articles de presse, des meilleures pratiques et des analyses d'experts de premier ordre; livrés directement dans votre boîte de réception.

Post Pourquoi l'IA devient plus puissante: implications pour les entreprises et la société apparu en premier sur CyberTalk.



>>Plus