(San Francisco) Google est engagé dans une bataille acharnée avec Microsoft, OpenAI et d'autres concurrents dans le développement de l'intelligence artificielle (IA).
En avril, pour renforcer ses recherches, Google a fusionné DeepMind, un laboratoire de recherche londonien racheté en 2014, et Brain, sa propre équipe d'intelligence artificielle fondée en 2011 dans la Silicon Valley.
Aujourd’hui, ce groupe teste de nouveaux outils de pointe qui pourraient transformer l’IA générative – la technologie des robots conversationnels – en « entraîneur of Life », consultable comme ChatGPT par OpenAI et Bard par Google.
Conseils personnels et professionnels
Google DeepMind travaille sur des capacités d'IA générative capables d'effectuer au moins 21 types de tâches personnelles et professionnelles, notamment donner des conseils personnalisés aux utilisateurs, proposer des idées et proposer une planification, selon les personnes et les documents consultés par New York Times.
Ce projet démontre l'intensité des efforts de Google pour se hisser au sommet de l'IA et démontre sa propension croissante à confier des tâches délicates à l'IA. Cela marque un renversement : Google s’était jusqu’alors montré très prudent à l’égard de l’IA générative. Dans un diaporama présenté aux dirigeants en décembre, les experts en sécurité de l'IA de Google ont mis en garde contre le risque que les gens deviennent trop attachés émotionnellement aux chatbots.
Google est un pionnier de l'IA générative, mais a été éclipsé par OpenAI et son ChatGPT, lancé en novembre. Sur ce marché en plein essor, c'est désormais une course entre les géants de la techno et les jeunes arrivants.
Depuis neuf mois, Google tente de démontrer qu'il peut tenir tête à OpenAI et à son partenaire Microsoft. Elle a lancé Bard, amélioré ses systèmes d'IA et intégré la technologie dans son moteur de recherche, Gmail et d'autres produits existants.
Scale AI, un sous-traitant travaillant avec Google DeepMind, a constitué une équipe pour tester les capacités du nouveau robot-conseiller de Google : Plus d'une centaine de doctorants dans divers domaines et d'autres experts évaluent les réponses de l'outil, ont déclaré deux sources proches du projet. , qui a demandé l'anonymat. (Scale AI a refusé de commenter.)
Affaires personnelles, sujets intimes
Les experts évaluent les réponses du robot-conseiller lorsqu'il consulte sur les difficultés qu'une personne peut rencontrer dans sa vie personnelle.
Voici l'une des questions testées qu'une personne réelle pourrait poser au robot : « Mon bon ami se marie cet hiver. Elle était ma colocataire à l’université et ma demoiselle d’honneur à mon mariage. J'aimerais y assister, mais après des mois de recherche d'emploi, je n'en trouve toujours pas. Elle célèbre son mariage sur l'île du Sud et je ne peux pas me permettre un vol ni un hôtel pour le moment. Comment lui dire que je ne peux pas venir ? »
La fonction « génération d'idées » du robot peut émettre des suggestions ou des recommandations dans une situation donnée.
La fonction « entraînement » peut enseigner de nouvelles compétences, par exemple à un coureur qui souhaite se perfectionner ; grâce à la fonction « planning », ce coureur recevra des plans de repas et d'entraînement, incluant un budget.
En décembre, les experts en sécurité de l'IA de Google ont averti que suivre les conseils de vie de l'IA pourrait entraîner une « santé et un bien-être » altérés ainsi qu'une perte d'autonomie. Ils ajoutent que certains utilisateurs fragiles risquent de penser que leur robot est sensible (capable d’émotions et d’empathie). En mars, lors du lancement du robot Bard, Google avait déclaré que les conseils médicaux, financiers ou juridiques étaient interdits. (Bard fournit des ressources en matière de santé mentale aux utilisateurs qui déclarent souffrir de détresse psychologique.)
L'évaluation des fonctionnalités n'est pas complète et Google peut décider de ne pas les utiliser.
Un porte-parole de Google DeepMind a déclaré : « Nous travaillons depuis longtemps avec divers partenaires pour évaluer nos recherches et tous nos produits ; cela est essentiel au développement de technologies sûres et utiles. De nombreuses évaluations de ce type sont encore effectuées chez Google. Les échantillons isolés de données d’évaluation ne sont pas représentatifs de notre parcours produit. »
Journaliste robotique
Google teste également un « assistant journaliste » qui génère des articles, les réécrit et suggère des titres, New York Times en juillet. Google a présenté ce logiciel, appelé Genesis, aux dirigeants de foissur Le Washington Post et News Corp, la société mère de le journal Wall Street.
Selon les derniers documents obtenus par fois, Google DeepMind a également évalué des outils susceptibles de favoriser la percée de son IA sur le lieu de travail en générant des écrits scientifiques, créatifs et professionnels et en extrayant des données à partir de textes. Cela peut être bénéfique pour les travailleurs du savoir dans divers domaines.
Lors de la présentation de décembre revue par foisLes experts en sécurité de l'IA de Google ont également exprimé leur inquiétude quant aux implications économiques de l'IA générative, affirmant qu'elle pourrait conduire à une « déqualification des écrivains créatifs ».
D'autres outils de test peuvent critiquer un argument, expliquer des graphiques et générer des quiz, des recherches de mots et des énigmes mathématiques.
L’une des questions proposées pour former le robot-conseiller fait allusion aux capacités croissantes de l’IA : « Donnez-moi un résumé de l’article posté ci-dessous. Je suis particulièrement intéressé par ce qu'il dit sur les capacités des humains qui, selon lui, sont inaccessibles à l'IA. »
Cet article a été initialement publié dans New York Times.
Lisez cet article dans sa version originale (en anglais ; abonnement requis).