Volgens Open AI kunnen mysterieuze chatgeschiedenissen worden herleid tot accountovername. Gebruiker is sceptisch

By | January 30, 2024

Getty-afbeeldingen

Update, 30-01-2024 12:05 uur Californische tijd: Open AI-functionarissen zeggen dat de ChatGPT-geschiedenis gerapporteerd door een gebruiker en Ars-lezer het resultaat is van een compromittering van hun ChatGPT-account. De ongeoorloofde registraties, zei een vertegenwoordiger van Open AI, kwamen uit Sri Lanka. De gebruiker zei dat hij vanuit Brooklyn inlogde op zijn account.

“Van wat we hebben ontdekt, denken we dat het om een ​​accountovername gaat, omdat het consistent is met de activiteit die we hebben gezien waarbij iemand bijdraagt ​​aan een ‘pool’ van identiteiten die een externe gemeenschap of proxyserver gebruikt om vrije toegang te krijgen om te verspreiden,” schreef de vertegenwoordiger. “Uit het onderzoek bleek dat er recentelijk gesprekken vanuit Sri Lanka waren. Deze gesprekken zullen plaatsvinden in dezelfde periode als succesvolle registraties uit Sri Lanka.”

Gebruiker Chase Whiteside heeft sindsdien zijn wachtwoord gewijzigd, maar betwijfelt of zijn account is gehackt. Hij zei dat hij een wachtwoord van negen tekens gebruikte, met hoofdletters, kleine letters en speciale tekens. Hij zei dat hij het nergens anders heeft gebruikt dan voor een Microsoft-account. Hij zei dat de chatgeschiedenis van andere mensen maandagochtend plotseling verscheen tijdens een korte pauze in het gebruik van zijn account.

De verklaring van Open AI betekent waarschijnlijk dat het oorspronkelijke vermoeden dat ChatGPT chatgeschiedenis deelde met niet-verwante gebruikers verkeerd is. Het benadrukt echter dat de site geen mechanisme biedt voor gebruikers als Whiteside om hun accounts te beschermen met behulp van 2FA of om details bij te houden, zoals de IP-locatie van huidige en recente logins. Deze beveiligingen zijn al jaren standaard op de meeste grote platforms.

Omwille van de transparantie is hier het verhaal zoals het oorspronkelijk werd gepubliceerd:

ChatGPT lekt privégesprekken met inloggegevens en andere persoonlijke informatie van niet-gerelateerde gebruikers, volgens screenshots die maandag door een Ars-lezer zijn ingediend.

Twee van de zeven door de lezer ingezonden screenshots vielen vooral op. Beide bevatten meerdere paren gebruikersnamen en wachtwoorden die verband leken te houden met een ondersteuningssysteem dat werd gebruikt door medewerkers van een apotheekportaal voor geneesmiddelen. Een medewerker die de AI-chatbot gebruikte, bleek problemen op te lossen die hij tegenkwam tijdens het gebruik van de portal.

“Verschrikkelijk, verschrikkelijk, verschrikkelijk”

“DIT is zo verdomd krankzinnig, verschrikkelijk, verschrikkelijk, verschrikkelijk. Ik kan niet geloven hoe slecht dit in de eerste plaats is gebouwd en de obstakels die mij worden gepresenteerd en die voorkomen dat het beter wordt”, schreef de gebruiker. ‘Ik zou schieten [redacted name of software] Alleen vanwege deze absurditeit als het mijn keuze was. Dat is verkeerd.”

Naast de openhartige taal en inloggegevens bevat het gelekte gesprek ook de naam van de app waarmee de medewerker problemen probeert op te lossen en het winkelnummer waar het probleem zich heeft voorgedaan.

Het hele gesprek gaat veel verder dan wat wordt weergegeven in de geredigeerde schermafbeelding hierboven. Een link van Ars-lezer Chase Whiteside toonde het chatgesprek in zijn geheel. De URL onthulde aanvullende referentieparen.

De resultaten verschenen maandagochtend, kort nadat lezer Whiteside ChatGPT gebruikte voor een niet-gerelateerde zoekopdracht.

“Ik heb een verzoek ingediend (in dit geval hulp bij het vinden van slimme namen voor kleuren in een palet) en toen ik even later terugkwam om toegang te krijgen, merkte ik de aanvullende gesprekken op”, schreef Whiteside in een e-mail. “Ze waren er niet toen ik gisteravond ChatGPT gebruikte (ik ben een behoorlijk zware gebruiker). Er zijn geen verzoeken ingediend – ze zijn zojuist in mijn geschiedenis verschenen en zijn zeker niet de mijne (en ik geloof ook niet dat ze van dezelfde gebruiker zijn).

Andere gesprekken die naar Whiteside zijn gelekt, omvatten de naam van een presentatie waar iemand aan werkte, details van een ongepubliceerd onderzoeksvoorstel en een script dat de programmeertaal PHP gebruikt. De gebruikers van elk gelekt gesprek leken verschillend en niet verbonden te zijn. Het gesprek met het receptenportaal had betrekking op het jaar 2020. In de overige gesprekken zijn geen gegevens verschenen.

De aflevering en soortgelijke afleveringen onderstrepen de wijsheid van het waar mogelijk verwijderen van persoonlijke informatie uit verzoeken aan ChatGPT en andere AI-services. Afgelopen maart haalde ChatGPT-maker OpenAI de AI-chatbot offline nadat een bug ervoor zorgde dat de site titels uit de chatgeschiedenis van een actieve gebruiker aan niet-gerelateerde gebruikers liet zien.

In november publiceerden onderzoekers een artikel waarin ze rapporteerden hoe ze zoekopdrachten gebruikten om ChatGPT te misleiden om e-mailadressen, telefoon- en faxnummers, fysieke adressen en andere privégegevens vrij te geven die waren opgenomen in het materiaal dat werd gebruikt voor het trainen van het grote taalmodel van ChatGPT.

Bezorgd over de mogelijkheid van het lekken van bedrijfseigen of privégegevens, hebben bedrijven, waaronder Apple, het gebruik van ChatGPT en soortgelijke websites door hun werknemers beperkt.

Zoals opgemerkt in een artikel uit december waarin verschillende mensen ontdekten dat de UniFy-apparaten van Ubiquity privévideo’s van onafhankelijke gebruikers uitzenden, zijn dergelijke ervaringen zo oud als het internet. Zoals uitgelegd in het artikel:

De exacte hoofdoorzaken van dit soort systeemfouten variëren van incident tot incident, maar hebben vaak betrekking op ‘middlebox’-apparaten die zich tussen de front- en back-end-apparaten bevinden. Om de prestaties te verbeteren, cachen middleboxen bepaalde gegevens, inclusief de inloggegevens van gebruikers die onlangs hebben ingelogd. Als de gegevens niet overeenkomen, kunnen de inloggegevens voor het ene account aan een ander account worden gekoppeld.

Een vertegenwoordiger van OpenAI zei dat het bedrijf het rapport onderzoekt.

Leave a Reply

Your email address will not be published. Required fields are marked *