Dar visai neseniai apie dirbtinį intelektą buvo kuriami futuristiniai filmai, diskutuojama technologijų parodose, o žodis „robotas“ asocijavosi su lėtais mechaniniais judesiais. Tačiau atsiradus viešai prieinamam dirbtiniu intelektu paremtam pokalbių robotui „ChatGPT“, situacija sparčiai keičiasi. Nuo el. laiškų rašymo, idėjų generavimo, informacijos analizės iki greito kompleksinių užduočių atlikimo – „ChatGPT“ galimybės atrodo beribės.
Tačiau kokių rizikų kyla pateikiant „ChatGPT“ konfidencialius duomenis? Ar saugu, kilus darbiniam klausimui, tartis su dirbtiniu intelektu naudojantis asmenine paskyra? Apie tai pasakoja technologijų bendrovės „NFQ Technologies“ ekspertai.
Būtina atskirti asmenines ir verslo paskyras
Voldemaras Kadys, „NFQ Technologies“ kibernetinio saugumo architektas, teigia, kad darbo reikalais naudojantis dirbtinio intelekto ar bet kuriais kitais įrankiais, visų pirma, svarbu atskirti, ar šis įrankis yra įsigytas įmonės, ar paties darbuotojo asmeniškai.
„Pavyzdžiui, „ChatGPT“ turi nemokamą ir mokamą asmeninę versiją bei verslui skirtas paskyras. Naudojantis asmenine paskyra, susirašinėjimo istorija pagal nutylėjimą saugoma jos kūrėjų aplinkoje. „ChatGPT“ kūrėjai, bendrovė „Open AI“, atvirai deklaruoja, kad vartotojų pateikta informacija gali būti naudojama modelio apmokymo tikslais. Tad šio įrankio kūrėjai turi prieigą prie jūsų pateiktos informacijos. Tuo metu verslo paskyrose susirašinėjimų istorijos saugojimas standartiškai yra išjungtas“, – teigia V. Kadys.
Asmenines paskyras naudojantiems vartotojams jis rekomenduoja arba nustatymuose uždrausti naudoti pateiktus duomenis, arba jautresniems susirašinėjimams naudoti laikino pokalbio (angl. temporary chat) funkciją.
„Tuo metu įmonėms rekomenduočiau įvesti taisykles, kad darbo reikalais asmeninės paskyros negali būti naudojamos, o geriausia – apskritai apriboti konfidencialios informacijos teikimą pokalbių modeliams”, – sako V. Kadys.
Pasak jo, visiškai uždrausti darbe naudoti pokalbių robotų tikrai neverta, nes darbuotojai vis vien jais naudosis, o įvedusios ribojimus, įmonės praranda galimybę tinkamai sukonfigūruoti įrankius ir gali nesuvaldyti kylančių rizikų. Tačiau verta aiškiai apibrėžti jų naudojimo taisykles, jas tinkamai iškomunikuoti ir, prireikus, suorganizuoti mokymus su specialistais.
Duomenis saugoti savo serveriuose
Lukas Inokaitis, „NFQ Technologies“ strateginių partnerysčių vadovas, priduria, kad net ir naudojantis „ChatGPT“ verslo paskyromis pateikti duomenys nugula įrankio kūrėjų serveriuose.
„Tad saugiausias būdas įmonėms naudotis pokalbių robotais, kaip ir bet kuriais kitais įrankiais, – perkelti juos į savo infrastruktūrą, ypač, jei duomenys jautrūs. Vystydami unikalius dirbtinio intelekto sprendimus, pagrįstus didžiaisiais kalbos modeliais, pasitelkiame debesijos tiekėjus kaip „Google Cloud“, „AWS“ ar „Azure“, kuriuose galima susikurti naudojamo modelio privačią versiją, nesidalijančią duomenimis su modelio kūrėjais, pavyzdžiui, „OpenAI“. Tokias paslaugas galima susikonfigūruoti „Azure OpenAI Service“, „AWS Bedrock“ ar „Google Vertex“ platformose. Tai įprastai būna brangesnis sprendimas, bet visiškai užtikrina saugumą ir apsaugo nuo duomenų nutekėjimo“, – sako L. Inokaitis.
Jis priduria, kad sprendžiant, ar duomenis laikyti savo įmonės serveriuose, ar pasirinkti debesijos paslaugą (angl. IaaS), verta įvertinti, kiek jautrūs duomenys bus naudojami, kokių rizikų jie kelia, ir kritiškai įvertinti paslaugos teikėjo patikimumą.
Atkreipti dėmesį į įrankių kūrėjus
Kadys pasakoja, kad nors „ChatGPT“ yra vienas populiariausių dirbtinio intelekto įrankių, šiuo metu rinkoje jų atsiranda vis daugiau. Visgi, pasitaiko atvejų, kai naudodamiesi tokiais įrankiais, kibernetiniai nusikaltėliai patenka į vidines pokalbių sistemas ir, kalbėdamiesi su robotu, geba išgauti konfidencialią įmonės informaciją.
Tad jei įmonės rengiasi savo veikloje diegti bet kokius dirbtiniu intelektu paremtus įrankius, kibernetinio saugumo ekspertas pataria įvertinti keletą aspektų.
„Renkantis bet kurį įrankį, kurį naudosite savo bendrovės veikloje, svarbu atsižvelgti į tai, kokia įmonė jį sukūrė, kokia technologija slypi už jo, kaip pateikti duomenys bus naudojami, kur saugojami. Rekomenduočiau perskaityti ir privatumo politiką. Taip pat reikėtų įvertinti, kur įrankio kūrėjai veikia – ar tai yra Europos Sąjungai priklausanti valstybė, nes tuomet jai taikomi tam tikri ES reikalavimai, bendrojo duomenų saugos reglamentas (BDAR), NIS2 direktyva, kurie padeda užtikrinti saugumą. Taip pat verta pasidomėti, ar įrankius sukūrusi įmonė turi įdiegtus kokybės standartus, pavyzdžiui, ISO“, – sako V. Kadys.
Kritiškai vertinti atsakymus
Apibendrindamas, saugumo ekspertas sako, kad apskritai dirbtinio intelekto naudos nusveria rizikas. Tačiau naudojantis dirbtiniu intelektu paremtais įrankiais, verta kritiškai įvertinti jų pateikiamą informaciją.
„GPT yra modelis, kuris pateikia atsakymus, remdamasis duomenimis, naudotais apmokymo metu. Tad šiuo atveju didesnė rizika yra ne pati informacija, kurią pateikiame, bet tai, kaip mes naudojamės atsakymais, nes jie ne visada yra tikslūs. Tad šį įrankį reikėtų vertinti kritiškai, kaip pagalbą, bet ne kaip nekvestionuojamą visažinį, kuris viską išmano geriau už mus“, – pataria V. Kadys.