Deze week in AI: willen kopers eigenlijk de GenAI van Amazon?

By | February 3, 2024

Fotocredit: Beata Zawrzel/NurPhoto/Getty Images

Het is een enorme uitdaging om gelijke tred te houden met een sector die zo snel evolueert als AI. Totdat een AI het voor je kan doen, volgt hier een handig overzicht van de nieuwste verhalen uit de wereld van machinaal leren, evenals opmerkelijke onderzoeken en experimenten die we niet alleen hebben behandeld.

Deze week introduceerde Amazon Rufus, een door AI aangedreven winkelassistent die is getraind in de productcatalogus van de e-commercegigant en informatie van internet. Rufus woont in de mobiele app van Amazon en helpt bij het zoeken naar producten, het uitvoeren van productvergelijkingen en het ontvangen van aankoopaanbevelingen.

Van uitgebreid onderzoek aan het begin van een kooptraject, zoals ‘Waar moet je op letten bij het kopen van hardloopschoenen?’ tot vergelijkingen als ‘Wat zijn de verschillen tussen trail- en weghardloopschoenen?’… Rufus verbetert de manier waarop klanten ‘de Het vermogen om de beste producten voor hun behoeften te vinden en te ontdekken is aanzienlijk”, schrijft Amazon in een blogpost.

Dit is allemaal geweldig. Maar mijn vraag is: wie vraagt ​​erom? Echt?

Ik ben er niet van overtuigd dat GenAI, vooral in de vorm van een chatbot, een technologie is waar de gemiddelde persoon om geeft – of zelfs maar over nadenkt. Enquêtes ondersteunen mij hierin. Afgelopen augustus ontdekte het Pew Research Center dat slechts 26% van degenen in de VS die hadden gehoord van OpenAI’s GenAI-chatbot ChatGPT (18% van de volwassenen) het had geprobeerd. Het gebruik varieert uiteraard per leeftijd, waarbij een groter percentage jongeren (onder de 50) aangeeft het te hebben gebruikt dan ouderen. Feit is echter dat de overgrote meerderheid niet weet of niet geïnteresseerd is in het gebruik van misschien wel het populairste GenAI-product op de markt.

GenAI heeft zijn bekende problemen, waaronder de neiging om feiten te verzinnen, auteursrechten te schenden en vooroordelen en toxiciteit te verspreiden. Amazon’s eerdere poging om een ​​GenAI-chatbot, Amazon Q, te ontwikkelen, kende grote problemen: hij onthulde gevoelige informatie op de eerste dag na de release. Maar ik zou willen stellen dat het grootste probleem van GenAI op dit moment – ​​althans vanuit consumentenperspectief – is dat er weinig overtuigende redenen zijn om het te gebruiken.

Zeker, GenAI zoals Rufus kan helpen met specifieke, beperkte taken zoals winkelen per gelegenheid (bijvoorbeeld het vinden van kleding voor de winter), het vergelijken van productcategorieën (bijvoorbeeld het verschil tussen lipgloss en olie) en het blootleggen van topaanbevelingen (bijvoorbeeld cadeaus voor Valentijnsdag) hulp. Voldoet het echter aan de behoeften van de meeste kopers? Volgens een recent onderzoek van e-commerce software startup Namogoo niet.

Namogoo ondervroeg honderden consumenten over hun behoeften en frustraties bij online winkelen en ontdekte dat productafbeeldingen veruit de belangrijkste bijdrage leveren aan een goede e-commerce-ervaring, gevolgd door productrecensies en -beschrijvingen. Respondenten rangschikten zoeken als vierde en “gemakkelijke navigatie” als vijfde; Het onthouden van voorkeuren, informatie en winkelgeschiedenis kwam op de tweede plaats.

De implicatie is dat mensen bij het winkelen over het algemeen één product in gedachten hebben; Deze zoektocht is een bijzaak. Misschien verprutst Rufus de vergelijking. Ik ben geneigd dat niet te geloven, vooral als het een moeizame uitrol is (en gezien de reacties op de andere GenAI-shopping-experimenten van Amazon zou dat best wel eens het geval kunnen zijn), maar er zijn waarschijnlijk vreemdere dingen gebeurd.

Hier zijn enkele andere opmerkelijke AI-verhalen van de afgelopen dagen:

  • Google Maps experimenteert met GenAI: Google Maps introduceert een GenAI-functie waarmee u nieuwe plaatsen kunt ontdekken. Met behulp van grote taalmodellen (LLM’s) analyseert de functie meer dan 250 miljoen locaties op Google Maps en berichten van meer dan 300 miljoen lokale gidsen om suggesties te creëren op basis van uw zoekopdrachten.
  • GenAI-tools voor muziek en meer: In ander Google-nieuws bracht de technologiegigant GenAI-tools uit voor het maken van muziek, songteksten en afbeeldingen en maakte Gemini Pro, een van zijn krachtigere LLM’s, beschikbaar voor gebruikers van zijn Bard-chatbot wereldwijd.
  • Nieuwe open AI-modellen: Het Allen Institute for AI, het non-profit AI-onderzoeksinstituut opgericht door wijlen Microsoft-medeoprichter Paul Allen, heeft verschillende GenAI-taalmodellen uitgebracht waarvan het beweert dat ze ‘opener’ zijn dan andere – en, nog belangrijker, een licentie hebben om ontwikkelaars toe te staan ​​deze te gebruiken , ze zijn volledig geschikt voor training, experimenten en zelfs commercialisering.
  • FCC wil door AI gegenereerde oproepen verbieden: De FCC stelt voor om het gebruik van stemkloneringstechnologie bij robocalls in het algemeen illegaal te maken, waardoor het gemakkelijker wordt om de exploitanten van deze oplichting te vervolgen.
  • Shopify introduceert afbeeldingseditor: Shopify brengt een GenAI-media-editor uit om productafbeeldingen te verbeteren. Handelaren kunnen een type kiezen uit zeven stijlen of een prompt invoeren om een ​​nieuwe achtergrond te maken.
  • GPT’s, genaamd: OpenAI stimuleert de acceptatie van GPT’s, apps van derden die worden aangedreven door zijn AI-modellen, door ChatGPT in te schakelen Gebruikers hebben er toegang toe in elke chat. Betalende ChatGPT-gebruikers kunnen GPT’s in een gesprek betrekken door “@” te typen en een GPT uit de lijst te selecteren.
  • OpenAI werkt samen met Common Sense: In een niet-gerelateerde aankondiging zei OpenAI dat het samenwerkt met Common Sense Media, de non-profitorganisatie die de geschiktheid van verschillende media en technologieën voor kinderen beoordeelt en evalueert, om samen te werken aan AI-richtlijnen en educatief materiaal voor ouders, opvoeders en jonge volwassenen.
  • Autonoom surfen: The Browser Company, die de Arc Browser maakt, is op zoek naar een AI die voor je op internet surft en je resultaten geeft terwijl hij zoekmachines omzeilt, schrijft Ivan.

Meer machinaal leren

Weet een AI wat ‘normaal’ of ‘typisch’ is voor een bepaalde situatie, een bepaald medium of een bepaalde uiting? In sommige opzichten zijn grote taalmodellen ideaal voor het identificeren van de patronen die het meest lijken op andere patronen in hun datasets. En dat is precies wat Yale-onderzoekers ontdekten toen ze onderzochten of een AI de ‘typische aard’ van iets in een groep anderen kon herkennen. Als je bijvoorbeeld naar 100 romans kijkt, welke is dan het meest ‘typisch’ en welke het minst ‘typisch’, gegeven wat het model over dat genre heeft opgeslagen?

Interessant (en frustrerend) was dat de professoren Balázs Kovács en Gaël Le Mens al jaren aan hun eigen model werkten, een BERT-variant, en net toen ze op het punt stonden het uit te brengen, kwam ChatGPT uit en dupliceerde in veel opzichten precies wat ze hadden. klaar . “Je zou kunnen huilen”, zei Le Mens in een persbericht. Maar het goede nieuws is dat zowel de nieuwe AI als het oude, geoptimaliseerde model suggereren dat dit type systeem daadwerkelijk kan identificeren wat typisch en atypisch is in een dataset, een bevinding die later van pas zou kunnen komen. De twee wijzen erop dat ChatGPT weliswaar hun stelling in de praktijk ondersteunt, maar dat het gesloten karakter ervan het lastig maakt om er wetenschappelijk mee te werken.

Wetenschappers van de Universiteit van Pennsylvania onderzochten een ander vreemd concept van kwantificering: gezond verstand. Door duizenden mensen te vragen uitspraken als ‘Je krijgt wat je geeft’ of ‘Eet geen voedsel waarvan de houdbaarheidsdatum is overschreden’ te beoordelen op hoe ‘onredelijk’ ze zijn. Het is niet verrassend dat, hoewel er patronen naar voren kwamen, ‘weinig overtuigingen op groepsniveau werden erkend’.

“Onze resultaten suggereren dat het idee van gezond verstand uniek is voor elke persoon, waardoor het concept minder gebruikelijk is dan je zou verwachten”, zegt co-hoofdauteur Mark Whiting. Waarom staat dit in een AI-nieuwsbrief? Want net als vrijwel al het andere blijkt dat zoiets “eenvoudigs” als gezond verstand, wat je uiteindelijk van AI zou verwachten, helemaal niet eenvoudig blijkt te zijn! Door het op deze manier te kwantificeren kunnen onderzoekers en recensenten echter wellicht vaststellen hoeveel gezond verstand een AI heeft, of met welke groepen en vooroordelen deze verbonden is.

Over vooringenomenheid gesproken: veel grote taalmodellen gaan nogal losjes om met de informatie die ze absorberen. Dus als u ze de juiste prompt geeft, kunnen ze aanstootgevend, onjuist of beide reageren. Latimer is een startup die hier verandering in wil brengen met een model dat van nature inclusiever wil zijn.

Hoewel er niet veel details zijn over hun aanpak, zegt Latimer dat hun model gebruik maakt van retrieval augmentedgeneration (om de antwoorden te verbeteren) en een reeks unieke gelicentieerde inhoud en gegevens uit vele culturen die doorgaans niet in deze databases voorkomen. Dus als je ergens naar vraagt, gebruikt het model niet een monografie uit de 19e eeuw om je te antwoorden. We zullen meer over het model te weten komen naarmate Latimer meer informatie vrijgeeft.

“/>

Fotocredit: Purdue/Bedrich Benes

Eén ding dat een AI-model zeker kan doen, is bomen laten groeien. Valse bomen. Onderzoekers van het Purdue Institute for Digital Forestry (waar ik graag zou willen werken, bel mij) hebben een supercompact model gemaakt dat op realistische wijze de groei van een boom simuleert. Dit is een van die problemen die eenvoudig lijken, maar dat niet zijn. Je kunt de groei van bomen simuleren, wat zeker werkt als je een game of film maakt, maar hoe zit het met serieus wetenschappelijk werk? “Hoewel AI schijnbaar alomtegenwoordig is geworden, is het grotendeels uiterst succesvol gebleken in het modelleren van 3D-geometrieën die geen verband houden met de natuur”, zegt hoofdauteur Bedrich Benes.

Hun nieuwe model is slechts ongeveer een megabyte groot, wat extreem klein is voor een AI-systeem. Maar het DNA is natuurlijk nog kleiner en dichter en codeert voor de hele boom, van wortel tot knop. Het model werkt nog steeds in abstracties – het is geenszins een perfecte simulatie van de natuur – maar het laat zien dat de complexiteit van boomgroei kan worden gecodeerd in een relatief eenvoudig model.

Eindelijk een robot van onderzoekers van de Universiteit van Cambridge die sneller dan een mens braille kan lezen, met een nauwkeurigheid van 90%. Waarom wil je dat weten? Eigenlijk is het niet voor blinde mensen; het team besloot dat dit een interessante en gemakkelijk kwantificeerbare taak zou zijn om de gevoeligheid en snelheid van de vingertoppen van robots te testen. Als hij braille kan lezen door er gewoon overheen te zoomen, is dat een goed teken! Meer over deze interessante aanpak leest u hier. Of bekijk de onderstaande video:

YouTube-poster



Leave a Reply

Your email address will not be published. Required fields are marked *