Moins d’une semaine après avoir imposé des limites de recherche à la version IA de son moteur de recherche Bing, Microsoft relève ces limites.
À la suite de rapports embarrassants sur le comportement erratique du nouveau Bing, Microsoft a décidé vendredi dernier de limiter l’utilisation quotidienne d’un utilisateur à cinq « tours » de chat par session et 50 tours par jour.
Un tour consiste en une question d’un utilisateur et une réponse de Bing. Au bout de cinq tours, les utilisateurs sont invités à changer le sujet de leur conversation avec l’IA.
Les changements étaient nécessaires car le modèle d’IA sous-jacent utilisé par le nouveau Bing peut être confus par de longues sessions de chat composées de plusieurs tours, a expliqué la société dans son blog Bing.
Cependant, mardi, après un tollé des utilisateurs de Bing, Microsoft a relevé les limites d’utilisation à six tours par session et 60 tours par jour.
Les nouvelles limites permettront à la grande majorité des utilisateurs d’utiliser naturellement le nouveau Bing, a blogué la société.
« Cela dit, notre intention est d’aller plus loin et nous prévoyons d’augmenter bientôt le plafond quotidien à 100 chats au total », a-t-il ajouté.
« De plus », a-t-il poursuivi, « avec ce changement à venir, vos recherches normales ne seront plus prises en compte dans vos totaux de chat. »
Entrée de la foule nécessaire
Microsoft a décidé d’imposer des limites à l’utilisation de Bing alimenté par l’IA après que certains utilisateurs aient trouvé des moyens d’inciter le moteur de recherche à les appeler un ennemi et même à le faire doubler les erreurs de fait qu’il a commises, comme le nom de Twitter. PDG.
« [W]Nous avons constaté que lors de sessions de chat longues et prolongées de 15 questions ou plus, Bing peut devenir répétitif ou être invité/provoqué à donner des réponses qui ne sont pas nécessairement utiles ou conformes à notre ton conçu », a reconnu Microsoft dans un blog.
Avec les nouvelles limites d’utilisation de Bing AI, l’entreprise peut admettre autre chose. « Cela indique qu’ils n’ont pas correctement prédit certaines des réponses et des tournures que cela a prises », a déclaré Greg Sterling, co-fondateur de Near Media, un site Web d’actualités, de commentaires et d’analyse, à TechNewsWorld.
« Malgré les histoires d’horreur écrites sur le nouveau Bing, il y a beaucoup de gains de productivité avec lui, ce qui montre l’utilité d’un tel outil dans certains scénarios de contenu », a affirmé Jason Wong, vice-président et analyste chez Gartner.
« Pour de nombreuses sociétés de logiciels, vous ne saurez pas ce que vous obtiendrez tant que vous n’aurez pas rendu votre logiciel public », a déclaré Wong à TechNewsWorld.
« Vous pouvez avoir toutes sortes de tests », a-t-il déclaré. «Vous pouvez demander à des équipes de faire des tests de résistance dessus. Mais vous ne saurez pas ce que vous avez tant que la foule n’y sera pas parvenue. Ensuite, espérons-le, vous pourrez discerner une certaine sagesse de la foule.
Wong a cité une leçon apprise par Reid Hoffman, fondateur de LinkedIn, « Si vous n’êtes pas gêné par la première version de votre produit, vous l’avez lancé trop tard. »
Google trop prudent avec Bard ?
La décision de Microsoft de lancer son véhicule de recherche IA avec des verrues potentielles contraste avec l’approche plus prudente adoptée par Google avec son produit de recherche Bard AI.
« Bing et Google sont dans des positions différentes », a expliqué Sterling. « Bing doit prendre plus de risques. Google a plus à perdre et sera donc plus prudent.
Mais Google est-il trop prudent ? « Cela dépend du type de lapin qu’ils ont dans leur chapeau », a observé Will Duffield, analyste politique au Cato Institute.
« Vous n’êtes que trop prudent si vous avez un très bon lapin et que vous ne le laissez pas sortir », a déclaré Duffield à TechNewsWorld. « Si votre lapin n’est pas prêt, il n’y a rien d’exagérément prudent à le retenir. »
« S’ils ont quelque chose de bien et qu’ils le publient, alors peut-être que les gens diront qu’ils auraient dû le lancer il y a des mois. Mais peut-être qu’il y a des mois, ce n’était pas aussi bon », a-t-il ajouté.
Menace pour les travailleurs
Microsoft a également annoncé sur son blog qu’il allait commencer à tester une option Bing AI qui permet à un utilisateur de choisir le ton d’un chat de « précis » – qui utilisera la technologie d’IA propriétaire de Microsoft pour se concentrer sur des réponses plus courtes et plus axées sur la recherche – à « équilibré » et » créatif » – qui utilisera ChatGPT pour donner à un utilisateur des réponses plus longues et plus bavardes.
La société a expliqué que l’objectif est de donner aux utilisateurs plus de contrôle sur le type de comportement de chat pour mieux répondre à leurs besoins.
« Le choix est bon dans l’abstrait », a observé Sterling. « Cependant, en ces premiers jours, la qualité des réponses ChatGPT n’est peut-être pas assez élevée. »
« Ainsi, jusqu’à ce que les garde-corps soient renforcés et que la précision de ChatGPT s’améliore, ce n’est peut-être pas une si bonne chose », a-t-il déclaré. « Bing devra gérer les attentes et exclure le contenu de ChatGPT dans une certaine mesure. »
Dans le même ordre d’idées, une enquête auprès de 1 000 chefs d’entreprise publiée mardi par Resume Builder a révélé que 49 % de leurs entreprises utilisent ChatGPT ; 30 % prévoient de le faire, et parmi les entreprises utilisant la technologie de l’IA, 48 % disent qu’elle a remplacé les travailleurs. Les graphiques suivants révèlent plus de données sur la façon dont les entreprises utilisent ChatGPT.
Copilote pour humains
Sterling était sceptique quant aux travailleurs remplacés trouvés dans l’enquête. «Je pense que de nombreuses entreprises le testent. Donc, dans ce sens, les entreprises « l’utilisent » », a-t-il noté.
« Et certaines entreprises peuvent reconnaître des moyens d’économiser du temps ou de l’argent et de remplacer potentiellement le travail manuel ou l’externalisation », a-t-il poursuivi. « Mais les résultats de l’enquête manquent de contexte et ne présentent que des informations partielles. »
Il a reconnu, cependant, que les modèles d’embauche et de travail indépendant changeront avec le temps en raison de l’IA.
Wong a trouvé que le nombre d’entreprises utilisant ChatGPT n’était pas surprenant, mais pas avec le nombre de personnes remplaçantes.
« Je peux voir que personne n’écrit de documentation pour une mise à jour d’une application ou d’un portail, mais pour réduire ou déplacer des personnes d’un rôle parce qu’ils utilisent ChatGPT, j’aurais du mal à le croire », a-t-il déclaré.
« Le conseil de Gartner aux clients qui explorent ChatGPT et le chat Bing est de les considérer comme des copilotes », a-t-il poursuivi. « Cela va aider à créer quelque chose qui devrait être examiné par un humain, par quelqu’un qui va évaluer la validité d’une réponse. »
« Dans un petit nombre de cas d’utilisation seulement, ils pourraient remplacer un humain », a-t-il conclu.