Ang GenAI ay naging isang mahalagang bahagi sa toolkit ng empleyado. Gayunpaman, higit pa sa mga bombastic na headline tulad ng mga ito, ang aktwal na dami ng data tungkol sa kung paano ginagamit ang mga AI application ay nananatiling nakakagulat na mahirap makuha. Sa LayerX, ang aming enterprise browser extension ay nagbibigay sa amin ng visibility sa mga aktibidad ng mga user sa browser, kung saan Paggamit ng application ng GenAI nagaganap. Magagamit namin ang visibility na iyon upang makakuha ng mga komprehensibong insight sa paggamit ng mga tool ng GenAI at mga application na SaaS na pinagana ng AI.
Upang bigyang-liwanag ang paggamit ng GenAI para sa kapakinabangan ng komunidad ng seguridad, pinagsama-sama at sinuri namin ang data na iyon, na lumilikha ng ulat na may (nakakagulat) na mga natuklasan tungkol sa kung paano ginagamit ng mga user ng enterprise ang AI sa lugar ng trabaho. Batay sa totoong buhay na data at telemetry na nakolekta mula sa customer base ng LayerX Security, ito ang una at isa-sa-uri nitong ulat ng enterprise na paggamit ng GenAI.
Sa ibaba, dinadala namin ang ilan sa mga pangunahing natuklasan. Upang basahin ang buong "Ulat sa Seguridad ng Data ng Enterprise GenAI 2025” ulat, kabilang ang lahat ng mga punto ng data at advanced na pagsusuri, pindutin dito.
Gaano Kalawak ang Paggamit ng Paggamit ng GenAI?
Habang ang mga tool ng GenAI tulad ng ChatGPT, Gemini, at Copilot ay nagiging regular na watercooler talk, nalaman ng LayerX na ang aktwal na pagkonsumo ay nananatiling kaswal. 14.5% lang ng mga user ng enterprise ang nakikipag-ugnayan sa mga tool na ito linggu-linggo. Karamihan sa aktibidad na ito ay sa pamamagitan ng ChatGPT. Ang mga developer ng software ay ang pinakamadalas na gumagamit (39%), na sinusundan ng mga benta at marketing (28%).
Iminumungkahi nito na habang ang GenAI ay gumawa ng makabuluhang pagpasok mula noong huling bahagi ng 2022, hindi pa ito naging mahalagang bahagi ng pang-araw-araw na daloy ng trabaho para sa karamihan. Gayunpaman, inaasahang lalago ang pag-aampon, at dapat subaybayan ng mga organisasyon ang paggamit para mas maunawaan kung paano ginagamit ang AI sa iba't ibang tungkulin.
Aling Mga Aplikasyon ng AI SaaS ang Ginagamit?
Ang data ng LayerX ay nagpapakita na ang paggamit ng AI application ay lubos na nakakonsentra sa ilang nangingibabaw na tool, kung saan ang ChatGPT lamang ang bumubuo sa halos 52% ng lahat ng mga kahilingan sa website na nauugnay sa AI. Ang nangungunang limang AI application, kabilang ang Gemini, Claude, at Copilot, ay bumubuo ng 86% ng paggamit ng AI, habang ang bottom 50 ay sama-samang nagkakaloob ng mas mababa sa 1%.
Mula sa pananaw ng seguridad at IT, lumilikha ito ng problemang "shadow AI", kung saan maraming hindi gaanong kilalang AI application ang gumagana sa ilalim ng radar na may kaunting pangangasiwa, na posibleng maglantad ng sensitibong data at lumikha ng mga panganib sa seguridad. Para mabawasan ito, inirerekomenda na ipatupad ng mga security team ang pagsubaybay at pamamahala para subaybayan ang paggamit ng AI sa lahat ng SaaS application.
May Visibility ba ang Mga Organisasyon sa Paggamit ng AI sa Lugar ng Trabaho?
Ang karamihan sa paggamit ng AI sa lugar ng trabaho ay nangyayari sa labas ng pangangasiwa ng organisasyon, na may 71.6% ng GenAI tool access na nangyayari sa pamamagitan ng mga hindi pang-corporate na account. Kahit sa mga user na gumagamit ng mga corporate account, 11.7% lang ng kabuuang mga login ang nakakatugon sa pamantayan ng seguridad ng mga corporate account na sinusuportahan ng SSO. Ito ay epektibong nag-iiwan sa halos 90% ng paggamit ng AI tool na hindi nakikita ng mga organisasyon.
Ang mga empleyadong gumagamit ng mga personal na account para sa mga tool ng GenAI ay lumalampas sa mga pananggalang ng kumpanya, na inilalantad ang data ng kumpanya sa mga potensyal na panganib sa seguridad, kabilang ang hindi awtorisadong paggamit ng data para sa pagsasanay sa modelo ng AI. Kahit na ginagamit ang mga corporate account, kung hindi sila gumagamit ng SSO, mawawalan ng visibility ang mga organisasyon sa mga pakikipag-ugnayan ng AI.
Anong Impormasyon ang Ibinabahagi?
Ang isang maliit na porsyento ng mga user ng enterprise ay may pananagutan sa pagbabahagi ng malaking halaga ng data sa mga tool ng GenAI. Gayunpaman, ang mga taong nakikibahagi sa aktibidad na ito ay kadalasang ginagawa ito— ang mga mabibigat na user ay nagpe-paste ng data sa average na 6.8 beses bawat araw, na may higit sa 50% ng mga paste na iyon na naglalaman ng impormasyon ng kumpanya. Ang mga pag-upload ng file, kahit na hindi gaanong karaniwan, ay nagaganap din sa isang kapansin-pansing rate.
Ang pangunahing panganib ay nagmumula sa pagkopya/pag-paste at pag-upload ng file, dahil nagbibigay-daan ang mga ito sa malaking halaga ng sensitibong data ng kumpanya na maibahagi nang mabilis. Katulad nito, ang mga pag-upload ng file ay malamang na may kasamang malalaking dataset, na, kung hindi masusubaybayan, ay maaaring magdulot ng mga panganib sa seguridad. Upang mabawasan ang potensyal na pagkakalantad ng data, dapat na masubaybayan ng mga organisasyon ang mga pakikipag-ugnayan ng user sa mga tool ng GenAI, subaybayan ang mga aktibidad sa pagbabahagi ng data, at magpatupad ng mga kontrol upang maiwasan ang hindi awtorisadong pagbubunyag ng impormasyon ng kumpanya.
Ang Problema Sa Mga Extension ng AI Browser
GenAI-enabled mga extension ng browser nagdudulot ng makabuluhan ngunit madalas na hindi pinapansin na panganib sa seguridad para sa mga negosyo. Isinasaad ng aming pananaliksik na mahigit 20% ng mga user ang nag-install ng hindi bababa sa isang extension ng browser na pinapagana ng AI, at halos kalahati sa kanila ay gumagamit ng maraming extension. Nakababahala, 58% ng mga extension na ito ay humihiling ng 'mataas' o 'kritikal' na mga pahintulot, na nagbibigay ng access sa sensitibong data gaya ng cookies, aktibidad sa pagba-browse, at pagkakakilanlan ng user. Higit pa rito, 5.6% ng mga extension na pinapagana ng AI ay inuri bilang nakakahamak, na ginagawa itong isang potensyal na vector para sa pagnanakaw ng data.
Ang seguridad ng extension ng browser ay isang mahalagang bahagi ng pangkalahatang diskarte sa seguridad ng GenAI ng organisasyon. Dapat magpatupad ang mga security team ng mga kontrol sa mga extension ng browser na naka-enable ang AI, tinitiyak na matatanggap nila ang parehong pagsisiyasat gaya ng direktang pag-access sa GenAI para mabawasan ang mga potensyal na banta.
Ano ang Susunod para sa Mga Organisasyon
Batay sa ulat, tila kulang ang visibility ng mga organisasyon sa mga pag-login at access sa mga application ng AI SaaS, ang paggamit ng mga application na hindi pinakasikat, at mga extension ng AI browser. Dapat maging priyoridad para sa bawat organisasyon ang pagkakaroon ng visibility sa bawat aspeto ng mga nakatagong banta na ito. Dahil ang pagkonsumo ay nangyayari sa pamamagitan ng browser, ang pagpigil sa GenAI data leakage ay nangangailangan ng isang diskarte sa seguridad na una sa browser na nakatutok sa kung saan – at paano – ginagamit ng mga user ang mga tool ng GenAI, at pagde-deploy ng mga tool sa seguridad na nagpapatupad ng mga proteksyon sa seguridad nang naaayon.