Face à un choix difficile, nous pourrions bientôt demander conseil à l'IA de Google, qui travaille sur une version coach de vie de son outil d'IA. Mais face aux risques éthiques et juridiques, ce système ne devrait pas être facilement accessible au grand public.
Faut-il accepter cette offre d'emploi, tout laisser tomber et se lancer dans un changement de carrière, quitter son partenaire pour commencer une nouvelle vie ailleurs ? Face à un choix difficile, nous aurons peut-être bientôt un nouveau réflexe : demander conseil àIA (IA). C'est ce que nous recherchons Esprit profond, la branche IA d'Alphabet. La société mère de Google je travaille depuis des mois sur une version » coach de vie » de ses outils d'IA. Ce dernier pourra peut-être répondre à des questions particulièrement intimes et personnelles sur la vie des usagers, comme le ferait un psychologue ou un ami proche.
Selon New York Times, une centaine de chercheurs de la société Scale AI, sous contrat avec DeepMind, testeraient ce projet, parmi 20 autres tâches. Nos confrères nous donnent l'exemple d'un internaute qui doit informer l'un de ses meilleurs amis qu'il ne pourra pas assister à son mariage car il ne peut pas payer son billet d'avion pour se rendre sur le lieu de la célébration. L’IA proposerait alors différentes manières de présenter cette mauvaise nouvelle afin qu’elle soit mieux reçue.
Risques éthiques et juridiques
Cette version de Life Coach inclura, en plus de cette capacité à répondre à certaines questions personnelles, d'autres fonctionnalités allant de la création de budgets aux programmes d'entraînement sportif.
Ces possibilités inquiètent certains chercheurs, qui soulignent une perte potentielle d'autonomie dans la pensée du consommateur, en plus du danger de certaines réponses du consommateur. des chatbots sujets aux hallucinations. Ces outils peuvent en effet donner des réponses très convaincantes tout en étant complètement faux, voire nuisibles.
Il y a quelques mois, une ONG américaine qui soutient les victimes de troubles alimentaires a dû retirer son robot conversationnel – nommé Tessa. Le système donnait des conseils alimentaires inappropriés, voire dangereux pour la santé de ceux qui les demandaient. Les experts de Google avaient également prévenu en décembre dernier que ce type d'outils présentait de nombreux risques pour le bien-être des utilisateurs. Les internautes pourraient s’investir trop émotionnellement dans les chatbots, estiment nos confrères de New York Times.
Comment garantir la confidentialité et la qualité des conseils ?
Cette nouvelle fonctionnalité en développement, qui est loin d'être surprenante au vu de la course à l'IA, devra relever plusieurs défis : d'abord, comment s'assurer que tous les objets personnels que vous donnez pour demander conseil ne finissent pas dans un domaine public. carré ou dans une autre conversation ? BardeL'outil de génération d'IA de Google conseille actuellement à ses utilisateurs de ne pas fournir d'informations personnelles.
Alors, comment pouvons-nous garantir que les conseils donnés par l’IA sont de bons conseils ? Christian Gutmann, spécialiste IA chez Pegasystems, cité par garderecommande par exemple la création de « approche responsable pour établir ces relations entre les humains et les systèmes d’IA. Le but est de « s'assurer que les conseils donnés à une personne sont sûrs, fiables et conformes à ce que conseillerait un professionnel », a-t-il rapporté à nos confrères.
D'un outil générique à un outil personnalisé
Autre défi de taille : techniquement, créer un tel système serait particulièrement compliqué, souligne-t-il. Richesse. Jusqu’à présent, Bard, comme ChatGPT, est capable de fournir des réponses générales de style Wikipédia sur un très grand nombre de sujets. Mais créer des interactions uniques et personnalisées serait particulièrement difficile. Pour pouvoir donner » conseils de vie », ces outils doivent être adaptés à la situation de chacun, en plus de pouvoir apporter des réponses adaptées et éthiques.
Pour toutes ces raisons, Google sera réticent à mettre en place ce type d’outil. Il peut se limiter à quelques fonctionnalités spécifiques – comme la création d’un budget – plutôt que de proposer un outil de coaching de vie beaucoup plus ambitieux. Selon New York Times, pour l'instant Google n'a pas encore décidé de sa stratégie de lancement. Si cet outil devait arriver sur le marché, cela représenterait un changement d’approche pour le géant du numérique. Mountain View conseille aux utilisateurs de Bard de ne pas demander « conseils médicaux, juridiques, financiers ou autres conseils professionnels « .
Interrogé par New York TimesDeepMind, de son côté, a insisté sur son processus d'évaluation en cours pour ce projet, précisant qu'il est « une étape importante dans le développement de technologies sûres et utiles « .
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous Actualités de Google Et WhatsApp.
New York Times