Mais le lancement d’OpenAI ChatGPT révolutionnaire trois mois plus tôt avait changé les choses. La start-up de San Francisco a suivi Google en lisant les articles scientifiques de l’équipe, a déclaré Dean lors de la réunion trimestrielle de la division de recherche de l’entreprise. En effet, les transformateurs – un élément fondamental de la dernière technologie d’IA et du T dans ChatGPT – sont originaires d’un Étude Google.
Les choses devaient changer. Google profiterait de ses propres découvertes sur l’IA, ne partageant des documents qu’après que le travail de laboratoire ait été transformé en produits, a déclaré Dean, selon deux personnes au courant de la réunion, qui ont parlé sous couvert d’anonymat pour partager des informations privées.
Le changement de politique fait partie d’un changement plus large au sein de Google. Longtemps considéré comme le leader de l’IA, le géant de la technologie est passé en mode défensif – le premier à repousser une flotte de concurrents agiles de l’IAet maintenant pour protéger son activité principale de recherche, le cours de l’action et, potentiellement, son avenir, qui, selon les dirigeants, est étroitement lié à l’IA.
Dans les articles d’opinion, les podcasts et les apparitions à la télévision, Google Le PDG Sundar Pichai a appelé à la prudence sur l’IA. “A l’échelle de la société, ça peut faire beaucoup de mal”, a-t-il prévenu sur “60 Minutes” en avril, décrivant comment la technologie pourrait accélérer la création de fausses images et vidéos.
Mais ces derniers mois, Google a remanié ses opérations d’IA dans le but de lancer rapidement des produits, selon des entretiens avec 11 employés actuels et anciens de Google, dont la plupart ont parlé sous couvert d’anonymat pour partager des informations privées.
Il a abaissé la barre pour lancer des outils d’IA expérimentaux à des groupes plus petits, en développant un nouvel ensemble de mesures d’évaluation et de priorités dans des domaines tels que l’équité. Ça aussi a fusionné Google Brain, une organisation dirigée par Dean et façonnée par les intérêts des chercheurs, avec DeepMind, une unité d’IA rivale avec une approche singulière et descendante, pour “accélérer nos progrès en IA”, a écrit Pichai dans une annonce. Cette nouvelle division ne sera pas dirigée par Dean, mais par Demis Hassabis, PDG de DeepMind, un groupe considéré par certains comme ayant une marque plus fraîche et plus puissante.
Lors d’une conférence plus tôt cette semaine, Hassabis a déclaré que l’IA était potentiellement plus proche de atteindre une intelligence de niveau humain que la plupart des autres experts en IA l’ont prédit. “Nous pourrions être à quelques années, peut-être … une décennie”, a-t-il déclaré.
L’accélération de Google se présente sous la forme d’une cacophonie de voix, y compris des voix notables anciennes élèves de l’entreprise et vétérans de l’industrie – appellent les développeurs d’IA à ralentir, avertissant que la technologie se développe plus rapidement que même ses inventeurs ne l’avaient prévu. Geoffrey Hinton, l’un des pionniers de la technologie de l’IA qui a rejoint Google en 2013 et a récemment quitté l’entreprise, a depuis lancé un blitz médiatique avertissement sur les dangers de l’IA super intelligente échapper au contrôle humain. Pichai, ainsi que les PDG d’OpenAI et de Microsoft, rencontreront jeudi des responsables de la Maison Blanche, dans le cadre des efforts continus de l’administration pour signaler les progrès dans l’inquiétude du public, alors que les régulateurs du monde entier discutent de nouvelles règles concernant la technologie.
Pendant ce temps, une course aux armements contre l’IA se poursuit sans surveillance, et les craintes des entreprises de paraître imprudentes peuvent s’éroder face à la concurrence.
“Ce n’est pas qu’ils étaient prudents, ils n’étaient pas disposés à saper leurs sources de revenus et leurs modèles commerciaux existants”, a déclaré le co-fondateur de DeepMind, Mustafa Suleyman, qui a quitté Google en 2022. et a lancé Pi, une IA personnalisée de sa nouvelle start-up Inflection AI cette semaine. “Ce n’est que lorsqu’il y a une véritable menace extérieure qu’ils commencent à se réveiller.”
Pichai a souligné que les efforts de Google pour accélérer ne signifient pas prendre des raccourcis. “Le rythme des progrès est maintenant plus rapide que jamais”, a-t-il écrit dans l’annonce de la fusion. “Pour assurer le développement audacieux et responsable de l’IA générale, nous créons une unité qui nous aidera à construire des systèmes plus performants de manière plus sûre et responsable.”
Un ancien chercheur de Google AI a décrit le changement alors que Google passait du “temps de paix” au “temps de guerre”. La publication de la recherche aide largement à développer le domaine global, Brian Kihoon Lee, un chercheur de Google Brain qui a été licencié dans le cadre de la société licenciements massifs en janvier, a écrit dans un article de blog d’avril. Mais une fois que les choses deviennent plus compétitives, le calcul change.
“En temps de guerre, il importe également de savoir à quel point la part du gâteau de vos concurrents augmente”, a déclaré Lee. Il a refusé de commenter davantage cette histoire.
“En 2018, nous avons établi une structure de gouvernance interne et un processus d’examen complet – avec des centaines d’examens dans tous les domaines de produits jusqu’à présent – et nous avons continué à appliquer ce processus aux technologies basées sur l’IA que nous lançons à l’extérieur”, a déclaré le porte-parole de Google, Brian Gabriel. “L’IA responsable reste une priorité absolue pour l’entreprise.”
Pichai et d’autres dirigeants ont de plus en plus commencé à parler de la perspective que la technologie de l’IA corresponde ou dépasse l’intelligence humaine, un concept connu sous le nom d’intelligence générale artificielle, ou AGI. Le une fois terme marginalassocié à l’idée que l’IA pose un risque existentiel pour l’humanité, est au cœur de la mission d’OpenAI et a été adopté par DeepMind, mais a été évité par les hauts gradés de Google.
Pour les employés de Google, cette approche accélérée est un bienfait mitigé. La nécessité d’une approbation supplémentaire avant de publier sur recherche pertinente en IA pourrait signifier que les chercheurs seront « raflés » sur leurs découvertes dans le monde ultra-rapide de l’IA générative. Certains craignent qu’il puisse être utilisé pour tranquillement écraser les articles controverséscomme une étude de 2020 sur les méfaits des grands modèles linguistiques, co-écrite par les responsables de l’équipe Ethical AI de Google, Timnit Gebru et Margaret Mitchell.
Mais d’autres reconnaissent que Google a perdu nombre de ses meilleurs chercheurs en intelligence artificielle au cours de la dernière année au profit de start-ups considérées comme à la pointe de la technologie. Une partie de cet exode découlait de la frustration que Google ne faisait pas des gestes apparemment évidents, comme l’incorporation de chatbots dans la recherche, bloqué par des préoccupations concernant les préjudices juridiques et de réputation.
Lors de la diffusion en direct de la réunion trimestrielle, l’annonce de Dean a reçu une réponse favorable, les employés partageant des emoji optimistes, dans l’espoir que le pivot aiderait Google à reprendre le dessus. “OpenAI nous battait à notre propre jeu”, a déclaré un employé qui a assisté à la réunion.
Pour certains chercheurs, l’annonce de Dean lors de la réunion trimestrielle était la première qu’ils entendaient parler des restrictions à la publication de la recherche. Mais pour ceux qui travaillent sur de grands modèles de langage, un cœur technologique des chatbots, les choses sont devenues plus strictes depuis que les dirigeants de Google ont publié pour la première fois un “Code Red” pour se concentrer sur l’IA en décembre, après que ChatGPT soit devenu un phénomène instantané.
Obtenir l’approbation des articles pourrait nécessiter des examens intensifs répétés avec des cadres supérieurs, selon un ancien chercheur. De nombreux scientifiques sont allés travailler chez Google avec la promesse de pouvoir continuer à participer à la conversation plus large dans leur domaine. Une autre série de chercheurs est partie en raison des restrictions sur la publication.
L’évolution des normes pour déterminer quand un produit d’IA est prêt à être lancé a suscité un malaise. La décision de Google de publier son chatbot d’intelligence artificielle Bard et de mettre en œuvre des normes inférieures sur certains résultats de test pour les produits d’IA expérimentaux a déclenché un contrecoup interne, selon un rapport à Bloomberg.
Mais d’autres employés estiment que Google a fait un travail réfléchi en essayant d’établir des normes dans ce domaine émergent. Début 2023, Google a partagé une liste d’environ 20 priorités politiques autour de Bard élaborées par deux équipes d’IA : l’équipe d’Innovation responsable et l’IA responsable. Un employé a qualifié les règles de «raisonnablement claires et relativement robustes».
D’autres avaient moins confiance dans les partitions au départ et trouvaient l’exercice largement performatif. Ils ont estimé que le public serait mieux servi par la transparence externe, comme documenter ce qui se trouve à l’intérieur des données de formation ou ouvrir le modèle à des experts extérieurs.
Les consommateurs commencent à peine à connaître les risques et les limites des grands modèles de langage, comme la tendance de l’IA à inventer des faits. Mais El Mahdi El Mhamdi, un scientifique senior de Google Research, qui a démissionné en février en raison du manque de transparence de l’entreprise sur l’éthique de l’IA, a déclaré que les entreprises technologiques pourraient avoir été utiliser cette technologie pour former d’autres systèmes d’une manière qui peut être difficile à suivre, même pour les employés.
Lorsqu’il utilise Google Translate et YouTube, “je vois déjà la volatilité et l’instabilité qui ne peuvent s’expliquer que par l’utilisation de”, ces modèles et ensembles de données, a déclaré El Mhamdi.
De nombreuses entreprises ont déjà démontré les problèmes liés au déplacement rapide et au lancement d’outils inachevés auprès d’un large public.
“Dire, ‘Hé, voici ce système magique qui peut faire tout ce que vous voulez’, puis les utilisateurs commencent à l’utiliser d’une manière qu’ils n’anticipent pas, je pense que c’est plutôt mauvais”, a déclaré le professeur de Stanford Percy Liang, ajoutant que les avis de non-responsabilité en petits caractères sur ChatGPT ne précisent pas ses limites.
Il est important d’évaluer rigoureusement les capacités de la technologie, a-t-il ajouté. Liang a récemment co-écrit un article examinant les outils de recherche d’IA comme le nouveau Bing. Il a constaté que seulement 70 % environ de ses citations étaient correctes.
Google investit de l’argent dans le développement de la technologie de l’IA depuis des années. Au début des années 2010, il a commencé à acheter des start-ups d’IA, incorporant leur technologie dans sa gamme de produits en constante évolution. En 2013, il a fait appel à Hinton, le pionnier des logiciels d’IA dont les travaux scientifiques ont contribué à former le socle de la culture dominante actuelle des technologies. Un an plus tard, il a acheté DeepMind, fondé par Hassabis, un autre chercheur de premier plan en IA, pour 625 millions de dollars.
Peu de temps après avoir été nommé PDG de Google, Pichai a déclaré que Google deviendrait une entreprise “IA first”, intégrant la technologie dans tous ses produits. Au fil des ans, les équipes de recherche sur l’IA de Google ont développé des percées et des outils qui profiteront à l’ensemble de l’industrie. Ils ont inventé des “transformateurs” – un nouveau type de modèle d’IA qui pourrait digérer des ensembles de données plus volumineux. La technologie est devenue la base des «grands modèles de langage» qui dominent désormais la conversation autour de l’IA, y compris les GPT3 et GPT4 d’OpenAI.
Malgré ces progrès constants, c’est ChatGPT – construit par le plus petit parvenu OpenAI – qui a déclenché une vague de fascination et d’excitation plus large pour l’IA. Fondée pour fournir un contrepoids à la prise de contrôle du domaine par les entreprises Big Tech, OpenAI était moins surveillée que ses plus grands rivaux et était plus disposée à mettre ses modèles d’IA les plus puissants entre les mains des gens ordinaires.
“Il est déjà difficile dans toutes les organisations de combler ce fossé entre les vrais scientifiques qui font progresser les modèles fondamentaux et les personnes qui essaient de créer des produits”, a déclaré De Kai, chercheur en intelligence artificielle à l’Université de Californie à Berkeley, qui a participé à l’éphémère étude de Google. à l’extérieur du conseil consultatif de l’IA en 2019. “Comment vous intégrez cela d’une manière qui n’entrave pas votre capacité à avoir des équipes qui poussent l’état de l’art, c’est un défi.”
Pendant ce temps, Google a pris soin de labelliser son chatbot Bard et ses autres nouveautés Produits d’IA en tant qu'”expériences”. Mais pour une entreprise comptant des milliards d’utilisateurs, même les expériences à petite échelle affectent des millions de personnes et il est probable une grande partie du monde entrera en contact avec l’IA générative via les outils Google. La taille même de l’entreprise signifie que son passage au lancement plus rapide de nouveaux produits d’IA suscite des inquiétudes chez un large éventail de régulateurs, de chercheurs en IA et de chefs d’entreprise.
L’invitation à la réunion de jeudi à la Maison Blanche a rappelé aux chefs de la direction que le président Biden avait déjà “clarifié notre attente que des entreprises comme la vôtre doivent s’assurer que leurs produits sont sûrs avant de les mettre à la disposition du public”.
clarification
Cette histoire a été mise à jour pour clarifier que De Kai est chercheur à l’Université de Californie à Berkeley.