Cybercriminalité: faites attention à ce que vous dites à votre assistant chatbot…

Cybercriminalité: faites attention à ce que vous dites à votre assistant chatbot…

Séduisantes et utiles, elles peuvent l'être, mais le potentiel des interfaces d'IA en tant que passerelles pour la fraude et la collecte de données intrusives est énorme – et ne devrait que croître

Les inquiétudes concernant les capacités croissantes des chatbots formés sur de grands modèles linguistiques, tels que le GPT-4 d'OpenAI, le Barde de Google et le chat Bing de Microsoft, font les gros titres. Les experts mettent en garde sur leur capacité à diffuser de la désinformation à une échelle monumentale, ainsi que sur le risque existentiel que leur développement peut représenter pour l'humanité. Comme si ce n'était pas assez inquiétant, un troisième sujet de préoccupation s'est ouvert-illustré par Italy l'interdiction récente de ChatGPT pour des raisons de confidentialité.

Le régulateur italien des données a exprimé des inquiétudes concernant le modèle utilisé par OpenAI, propriétaire de ChatGPT, et a annoncé qu'il enquêterait pour savoir si l'entreprise avait enfreint les lois européennes strictes sur la protection des données.

Continuez à lire...

>>Plus