Logo ETI Quitter la lecture facile
Visuel AFP

AFP

Les modèles actuels d’IA ne sont « pas parfaits », admet le DG de Google News

Posté le par AFP

Shailesh Prakash, directeur général de Google News, a reconnu jeudi que les modèles actuels d’intelligence artificielle « ne sont pas parfaits du tout » mais « progressent rapidement », quelques semaines après la suspension d’un outil par le groupe américain pour cause d’inexactitudes historiques.

Pour situer où nous en sommes avec l’IA, « utilisons une analogie avec le football »: « une partie dure 90 minutes, je dirais que nous sommes dans les 5 premières minutes », a-t-il lancé lors d’une intervention au festival international de journalisme de Pérouse en Italie.

« Donc, c’est très tôt. Ces modèles progressent rapidement. Ils ne sont pas parfaits du tout », a ajouté M. Prakash, le directeur général de Google News (service en ligne gratuit de Google qui présente de façon automatisée des articles de presse présents sur internet).

En février, peu après avoir lancé Gemini, sa nouvelle interface d’IA générative, Google avait suspendu la création d’images de personnes à la suite de nombreux signalements d’utilisateurs. Une requête sur un soldat allemand de 1943 avait par exemple donné lieu à des images de militaires asiatiques ou à la peau noire.

« C’est totalement inacceptable et nous nous sommes trompés », avait réagi le PDG de Google, Sundar Pichai.

L’année dernière, Google a par ailleurs indiqué mettre au point un nouvel outil d’intelligence artificielle censé aider les journalistes à écrire leurs articles, en partenariat avec plusieurs grands noms de la presse.

« Nous travaillons dur » et « je suis un optimiste », a assuré M. Prakash jeudi. « Ces outils sont des outils avec l’humain dans la boucle », a-t-il souligné, face aux craintes exprimées parfois sur le possible remplacement des journalistes par des machines.

Le nouveaux outils vont permettre d’être « plus créatifs, plus ambitieux », selon lui.

Le responsable de Google a expliqué travailler notamment à un « balisage »: il sera possible de consulter les sources de l’IA pour vérifier que la machine n’a pas eu d' »hallucinations », inventant des éléments.

Ainsi, « à la fin, la responsabilité vous incombe », a-t-il insisté.

« Tous droits de reproduction et de représentation réservés. © 2024 Agence France-Presse. »

Posté le par AFP


Réagissez à cet article

Commentaire sans connexion

Pour déposer un commentaire en mode invité (sans créer de compte ou sans vous connecter), c’est ici.

Captcha

Connectez-vous

Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.

INSCRIVEZ-VOUS
AUX NEWSLETTERS GRATUITES !