
Séduisantes et utiles, elles peuvent l'être, mais le potentiel des interfaces d'IA en tant que passerelles pour la fraude et la collecte de données intrusives est énorme – et ne devrait que croître
Les inquiétudes concernant les capacités croissantes des chatbots formés sur de grands modèles linguistiques, tels que le GPT-4 d'OpenAI, le Barde de Google et le chat Bing de Microsoft, font les gros titres.
Le régulateur italien des données a exprimé des inquiétudes concernant le modèle utilisé par OpenAI, propriétaire de ChatGPT, et a annoncé qu'il enquêterait pour savoir si l'entreprise avait enfreint les lois européennes strictes sur la protection des données.