3 Rizika a obavy týkající se soukromí chatbota, o kterých byste měli vědět

3 Rizika a obavy týkající se soukromí chatbota, o kterých byste měli vědět
Čtenáři jako vy pomáhají podporovat MUO. Když provedete nákup pomocí odkazů na našich stránkách, můžeme získat provizi přidružené společnosti. Přečtěte si více.   Visací zámek s rozmístěnými klávesami

Chatboti existují už roky, ale vzestup velkých jazykových modelů, jako je ChatGPT a Google Bard, dal odvětví chatbotů nový život.





Miliony lidí nyní používají chatboty s umělou inteligencí po celém světě, ale pokud chcete některý z těchto nástrojů vyzkoušet, je třeba mít na paměti některá důležitá rizika a obavy týkající se ochrany soukromí.





1. Sběr dat

Většina lidí nepoužívá chatboty jen proto, aby pozdravili. Moderní chatboti jsou navrženi tak, aby zpracovávali složité otázky a požadavky a odpovídali na ně, přičemž uživatelé ve svých výzvách často zahrnují spoustu informací. I když se ptáte jen na jednoduchou otázku, ve skutečnosti nechcete, aby to přesahovalo rámec vaší konverzace.





Podle Sekce podpory OpenAI , můžete odstranit chatové protokoly ChatGPT, kdykoli budete chtít, a tyto protokoly budou poté trvale odstraněny ze systémů OpenAI po 30 dnech. Společnost však uchová a zkontroluje určité protokoly chatu, pokud byly označeny za škodlivý nebo nevhodný obsah.

jak vytvořit novou e -mailovou adresu

Další populární chatbot s umělou inteligencí, Claude, také sleduje vaše předchozí konverzace. Centrum podpory společnosti Antropic uvádí, že Claude sleduje „vaše výzvy a výstupy v produktu, aby vám poskytl konzistentní zkušenost s produktem v průběhu času v souladu s vašimi ovládacími prvky.“ Své konverzace s Claudem můžete smazat, takže zapomene, o čem jste mluvili, ale to neznamená, že Anthropic okamžitě smaže vaše protokoly ze svých systémů.



To samozřejmě vyvolává otázku: jsou moje údaje uchovávány nebo ne? Používá ChatGPT nebo jiní chatboti moje data?

Zde ale obavy nekončí.





Jak se ChatGPT učí?

Za účelem poskytování informací jsou velké jazykové modely trénovány s velkým množstvím dat. Podle Zaměření na vědu Jen ChatGPT-4 byl během svého výcvikového období nakrmen 300 miliardami slov informací. To není převzato přímo z několika encyklopedií. Vývojáři chatbotů spíše využívají k trénování svých modelů množství informací z internetu. To může zahrnovat data z knih, filmů, článků, záznamů na Wikipedii, blogových příspěvků, komentářů a dokonce i webů s recenzemi.

Mějte na paměti, že v závislosti na zásadách ochrany soukromí vývojáře chatbota nemusí být některé z výše uvedených zdrojů při školení použity.





Mnozí kritizovali ChatGPT a tvrdili, že je to něco jako noční můra, pokud jde o soukromí, že ChatGPT nelze věřit . Proč tomu tak je?

Tady jsou věci trochu rozmazané. Pokud se zeptáte ChatGPT-3.5 přímo, zda má přístup k recenzím produktů nebo komentářům k článkům, dostanete jednoznačný zápor. Jak můžete vidět na níže uvedeném snímku obrazovky, GPT-3.5 uvádí, že během školení nedostal přístup k komentářům k uživatelským článkům nebo recenzím produktů.

  snímek obrazovky konverzace chatgpt-3.5

Spíše bylo trénováno pomocí „rozmanité škály textů z internetu, včetně webových stránek, knih, článků a dalších veřejně dostupných písemných materiálů až do září 2021“.

windows nemohl dokončit formát

Ale platí to i pro GPT-4?

Když jsme se zeptali GPT-4, bylo nám řečeno, že „OpenAI nepoužil konkrétní uživatelské recenze, osobní údaje nebo komentáře k článkům“ v období školení chatbota. Kromě toho nám GPT-4 řekl, že jeho odpovědi jsou generovány ze 'vzorů v datech, na kterých byl [to] trénován, což sestává především z knih, článků a dalšího textu z internetu.'

Když jsme dále zkoumali, GPT-4 tvrdil, že určitý obsah sociálních médií může být skutečně zahrnut do jeho tréninkových dat, ale tvůrci zůstanou vždy anonymní. GPT-4 konkrétně uvedl, že „I když byl obsah z platforem jako Reddit součástí školicích dat, [nemá] přístup ke konkrétním komentářům, příspěvkům nebo jakýmkoli datům, které lze propojit zpět s jednotlivými uživateli.

Další pozoruhodná část odpovědi GPT-4 je následující: 'OpenAI výslovně neuvádí všechny použité zdroje dat.' Pro OpenAI by samozřejmě bylo těžké uvést zdroje v hodnotě 300 miliard slov, ale to ponechává prostor pro spekulace.

V an Článek Ars Technica , bylo uvedeno, že ChatGPT shromažďuje 'osobní údaje získané bez souhlasu.' Ve stejném článku byla zmíněna kontextová integrita, koncept, který odkazuje pouze na použití něčích informací v kontextu, ve kterém byly původně použity. Pokud ChatGPT poruší tuto kontextovou integritu, mohou být ohrožena data lidí.

Dalším bodem zájmu je soulad OpenAI s Obecné nařízení o ochraně osobních údajů (GDPR) . Jedná se o nařízení vynucené Evropskou unií za účelem ochrany dat občanů. Různé evropské země, včetně Itálie a Polska, zahájily vyšetřování ChatGPT kvůli obavám ohledně souladu s GDPR. Na krátkou dobu byl ChatGPT dokonce zakázán v Itálii kvůli obavám o soukromí.

OpenAI v minulosti hrozilo stažením z EU kvůli plánovaným regulacím AI, ale to bylo od té doby staženo.

ChatGPT je možná největší AI chatbot současnosti, ale problémy s ochranou soukromí chatbota nezačínají a nekončí u tohoto poskytovatele. Pokud používáte stinného chatbota s nevýraznými zásadami ochrany osobních údajů, vaše konverzace mohou být zneužity nebo mohou být v jeho tréninkových datech použity vysoce citlivé informace.

2. Krádež dat

Jako každý online nástroj nebo platforma jsou chatboti zranitelní vůči kyberzločinu. I kdyby chatbot udělal vše, co mohl, aby ochránil uživatele a jejich data, vždy existuje šance, že se důvtipnému hackerovi podaří proniknout do jeho interních systémů.

Pokud by daná služba chatbotu ukládala vaše citlivé informace, jako jsou platební údaje za vaše prémiové předplatné, kontaktní údaje a podobně, mohlo by dojít k odcizení a zneužití, pokud by došlo ke kybernetickému útoku.

To platí zejména v případě, že používáte méně zabezpečeného chatbota, jehož vývojáři neinvestovali do adekvátní bezpečnostní ochrany. Nejen, že by mohly být hacknuty interní systémy společnosti, ale váš vlastní účet má šanci být kompromitován, pokud nemá upozornění na přihlášení nebo autentizační vrstvu.

Nyní, když jsou chatboti s umělou inteligencí tak populární, kyberzločinci přirozeně začali využívat toto odvětví pro své podvody. Falešné weby a pluginy ChatGPT byly velkým problémem od doby, kdy se chatbot OpenAI dostal do hlavního proudu na konci roku 2022, kdy lidé propadli podvodům a rozdávali osobní informace pod rouškou legitimity a důvěry.

V březnu 2023 MUO informovalo o a falešné rozšíření ChatGPT pro Chrome krade přihlášení k Facebooku . Plugin by mohl zneužít zadní vrátka Facebooku k hacknutí vysoce profilovaných účtů a krádeži souborů cookie uživatelů. Toto je jen jeden příklad z mnoha falešných služeb ChatGPT navržených k podvodu s nevědomými obětmi.

3. Malware infekce

Pokud používáte stinného chatbota, aniž byste si to uvědomovali, můžete zjistit, že vám chatbot poskytuje odkazy na škodlivé weby. Možná vás chatbot upozornil na lákavou nabídku nebo poskytl zdroj pro jedno ze svých prohlášení. Pokud mají provozovatelé služby nezákonné úmysly, smyslem platformy může být šíření malwaru a podvodů prostřednictvím škodlivých odkazů.

jak připojit alexa k wifi bez aplikace

Případně mohou hackeři ohrozit legitimní službu chatbota a použít ji k šíření malwaru. Pokud je tento chatbot náhodou hodně lidí, pak se tomuto malwaru stanou vystaveny tisíce nebo dokonce miliony uživatelů. Falešné aplikace ChatGPT byly dokonce na Apple App Store , takže je nejlepší našlapovat opatrně.

Obecně platí, že byste nikdy neměli klikat na žádné odkazy, které vám chatbot poskytne spusťte jej prostřednictvím webové stránky pro kontrolu odkazů . Může se to zdát otravné, ale vždy je nejlepší mít jistotu, že stránka, na kterou jste vedeni, nemá škodlivý design.

Navíc byste nikdy neměli instalovat žádné zásuvné moduly a rozšíření chatbotů, aniž byste nejprve ověřili jejich legitimitu. Udělejte si malý průzkum kolem aplikace, abyste zjistili, zda byla dobře zkontrolována, a také spusťte vyhledávání u vývojáře aplikace, abyste zjistili, zda nenajdete něco stinného.

Chatboti nejsou odolní vůči problémům s ochranou soukromí

Jako většina dnešních online nástrojů byli chatboti opakovaně kritizováni za možná úskalí v oblasti bezpečnosti a ochrany soukromí. Ať už se jedná o poskytovatele chatbotů, kteří omezují bezpečnost uživatelů, nebo pokračující rizika kybernetických útoků a podvodů, je důležité, abyste věděli, co na vás váš chatbot služba shromažďuje a zda používá adekvátní bezpečnostní opatření.