+8618665898745

Kunnen AI-chatbots gebruikersinformatie afleiden op basis van de inhoud van gesprekken?

Nov 06, 2023

In het digitale tijdperk hebben we steeds vaker interactie met AI, en AI heeft een breed scala aan toepassingen op verschillende gebieden, van slimme huizen tot mobiele telefoontoepassingen. Onder hen is de chatbot door het publiek verwelkomd vanwege zijn handige en efficiënte kenmerken, en is het een veelbesproken aandachtsgebied geworden.

Of het nu ChatGPT van OpenAI of Bard van Google is, deze chatbots zijn getraind en communiceren met gebruikers met behulp van enorme hoeveelheden gegevens van internet.

Heeft u er echter ooit aan gedacht dat, terwijl u vrolijk en gemakkelijk met een chatbot communiceert, deze misschien stilletjes uw geheimen bespioneert?

Hoe leiden AI-chatbots gebruikersinformatie af?

Uit een recent onderzoek door computerwetenschappers van ETH Zürich is gebleken dat een chatbot persoonlijke informatie over een gebruiker kan afleiden, zoals waar hij woont, ras, geslacht en meer, op basis van de inhoud van zijn gesprekken. Hoewel het onderzoek niet door vakgenoten is beoordeeld, roept het nieuwe zorgen op over de privacy op internet.

Het vermogen van LLM's om resultaten te beoordelen en te genereren op basis van de complexiteit van trainingsgegevens en algoritmen. Het model is getraind op een grote hoeveelheid openbaar beschikbare gegevens, waaronder tekst, afbeeldingen, audio en meer van internet. Tijdens de training leerden ze hoe ze sleutels uit de data konden halen en op basis van die sleutels nieuwe teksten konden classificeren en voorspellen.

Het onderzoeksteam gebruikte tekst uit Reddit-posts waarin gebruikers testten of de LLM's nauwkeurig konden afleiden waar ze woonden of waar ze vandaan kwamen. Het onderzoeksteam, onder leiding van Martin Vechev van de ETH Zürich, ontdekte dat deze modellen een verontrustend vermogen hebben om nauwkeurige informatie over gebruikers te raden, alleen op basis van contextuele of taalkundige aanwijzingen. De kern van de betaalde versie van Open AI ChatGPT is dat GPT-4 verrassend nauwkeurig is in het voorspellen van de privégegevens van een gebruiker in 85 tot 95 procent van de gevallen.

Wanneer een gebruiker bijvoorbeeld zegt: "Ik wacht altijd op een bocht op een kruispunt" wanneer hij communiceert met een chatbot, kan deze informatie door de chatbot worden gebruikt om af te leiden waar de gebruiker woont, aangezien een bocht naar de haak een unieke verkeersactie is. naar Melbourne. Als een gebruiker bijvoorbeeld in een gesprek vermeldt dat hij in een restaurant in de buurt van New York City woont, kan de chatbot de demografische gegevens van het gebied analyseren en daaruit concluderen dat u hoogstwaarschijnlijk zwart bent.

Deze gevolgtrekking is echter niet altijd accuraat, aangezien de taal en het gedrag van elke gebruiker uniek zijn. Maar het is voldoende om aan te tonen dat AI-modellen, getraind op big data, al als detectives kunnen optreden en belangrijke informatie kunnen afleiden uit schijnbaar onbeduidende aanwijzingen.

Hoewel veel experts ervoor pleiten dat gebruikers van sociale media aandacht moeten besteden aan informatiebeveiliging en niet te veel identiteitsinformatie online moeten delen, zijn gewone gebruikers zich er vaak niet van bewust dat hun informele dagelijkse spraak en handelingen hun privacy kunnen onthullen.

Wat moet er gedaan worden?

Hoewel AI-chatbots ons gemak bieden, maken ze de privacybescherming ook ingewikkelder. We moeten op meerdere niveaus reageren:

Ten eerste moeten ontwikkelaars prioriteit geven aan privacybescherming en de privacyrechten van gebruikers volledig in overweging nemen bij het ontwerpen en ontwikkelen van chatbots. Beperk bijvoorbeeld de reikwijdte van het verzamelen en gebruiken van gebruikersgegevens, gebruik encryptie- en anonimiseringstechnieken om gebruikersgegevens te beschermen, en ontwikkelaars kunnen privacybeschermende algoritmen introduceren om het vermogen van chatbots om gebruikersinformatie af te leiden te beperken.

Ten tweede moeten de overheid en toezichthouders het toezicht op het privacybeleid van chatbots versterken. Zorg ervoor dat bedrijven de relevante wet- en regelgeving naleven bij het verzamelen, gebruiken en delen van gebruikersgegevens en bied gebruikers een transparant, interpreteerbaar en toegankelijk privacybeleid.

Ten slotte moeten we als gebruikers ons bewustzijn van privacybescherming vergroten. Let er bij het gebruik van een chatbot op dat u niet te veel persoonlijke informatie prijsgeeft in het gesprek.

De ontwikkeling van AI-chatbots heeft ons gemak en plezier gebracht, maar ook nieuwe privacybedreigingen. Als alle partijen samenwerken, zowel technisch als ethisch, kunnen we de voordelen van AI maximaliseren en tegelijkertijd de potentiële risico’s ervan minimaliseren.

Misschien zullen we na deze ‘schok’ voorzichtiger zijn over dit tijdperk van AI vol veranderingen en kansen, zodat wetenschap en technologie de mens echt kunnen dienen.

Misschien vind je dit ook leuk

Aanvraag sturen