Mabilis na isinasama ng mga organisasyon at empleyado ang ChatGPT sa kanilang pang-araw-araw, na kinikilala ang potensyal nito na baguhin ang pagiging produktibo at automation ng gawain. Sa pamamagitan ng pag-input ng may-katuturang data, mapapabilis ng mga organisasyon ang pagbuo ng mga insight at deliverable, na higit na lumalampas sa mga tradisyonal na pamamaraan. Gayunpaman, ang ChatGPT at mga katulad na teknolohiya ng AI ay walang mga hamon sa seguridad. Dahil ang mga LLM ay nangangailangan ng access sa potensyal na sensitibong data ng organisasyon, ang data na ito ay nagiging bahagi ng mga system ng ChatGPT at maaari ding ma-leak. Sa post sa blog na ito, sumisid kami sa mga panganib na ito at ipinapaliwanag kung paano protektahan laban sa mga ito.

Paano Ginagamit ng Mga Organisasyon ang ChatGPT

Ginagamit ng mga organisasyon ang ChatGPT upang mapahusay ang pagiging produktibo at i-automate ang mga gawain. Halimbawa, ang ChatGPT ay ginagamit upang pag-aralan ang data, lumikha ng mga plano sa negosyo, bumuo ng mga ulat sa pananalapi, pahusayin ang mga kakayahan sa coding, at lumikha ng mga post sa social media. Sa pamamagitan ng pag-input ng data ng organisasyon sa ChatGPT, ang mga empleyado ay maaaring makakuha ng mga insight at makabuo ng mga resulta nang mas mabilis kaysa dati.

Gayunpaman, ang paggamit ng ChatGPT at mga katulad na teknolohiya ng AI ay kasama ng mga hanay ng mga panganib nito. Ang mga LLM ay nangangailangan ng access sa data ng organisasyon, na nagtataas ng mga tanong tungkol sa kung paano pinangangasiwaan at pinoprotektahan ang sensitibong impormasyong ito. Sa pagta-type at pag-paste ng mga empleyado ng pagmamay-ari o kinokontrol na data tulad ng PII, source code, at mga plano sa negosyo sa ChatGPT, may panganib na ang data na ito ay ginagamit ng OpenAI para sa panloob na pagsasanay, fine-tuning, at mga bagong output. Ito ay maaaring magresulta sa pagpasok nito sa mga kamay ng maling tao: mga kalaban o kakumpitensya.

Mga Panukala sa Kaligtasan ng ChatGPT

Ang ChatGPT, na binuo ng OpenAI, ay nagsasama ng ilang mga hakbang sa kaligtasan ng ChatGPT upang matiyak ang ligtas na paggamit nito at protektahan ang data ng user. Ang mga proteksyon sa lugar na sumasagot sa mga alalahanin sa seguridad ay kinabibilangan ng:

  • Audit – Ang OpenAI ay nagsasagawa ng taunang pag-audit sa seguridad upang matukoy at mabawasan ang mga potensyal na kahinaan sa loob ng kanilang mga system, na tinitiyak na ang mga kasanayan sa seguridad ay napapanahon at epektibo.
  • Encryption – Ang OpenAI ay nag-e-encrypt ng data kapwa sa pagbibiyahe at sa pahinga, sa gayon pinoprotektahan ito mula sa hindi awtorisadong pag-access.
  • Mga Kontrol sa Pag-access – Ang mga mahigpit na kontrol sa pag-access ay inilalagay upang matiyak na ang mga awtorisadong tauhan lamang ang makaka-access ng sensitibong impormasyon, na pinapaliit ang panganib ng mga paglabag sa data.
  • Mga Program ng Bug Bounty – Ang OpenAI ay nagpapatakbo ng mga bug bounty program, na nag-iimbita ng mga etikal na hacker na maghanap at mag-ulat ng mga kahinaan kapalit ng mga gantimpala. Ang proactive na diskarte na ito ay nakakatulong sa pagtukoy at pag-aayos ng mga isyu sa seguridad bago sila mapagsamantalahang may malisya.
  • Mga Paghihigpit sa Input ng User – Ang system ay may built-in na mga pananggalang upang maiwasan ang pagproseso ng sensitibong personal na data. Kapag natukoy ng ChatGPT chatbot ang input na naglalaman ng potensyal na sensitibong impormasyon (tulad ng mga numero ng social security o mga detalye ng credit card), idinisenyo ito upang tanggihan o mag-ingat laban sa mga naturang pagsusumite, na pinapagaan ang panganib na makompromiso ang personal na data.
  • Mga Regular na Update at Patching – Ang sistema ay sumasailalim sa mga regular na pag-update upang mapahusay ang mga kakayahan nito, ayusin ang mga kahinaan at umangkop sa mga bagong banta sa seguridad.

Matuto pa tungkol sa AI chatbot security

 

Ligtas bang Gamitin ang ChatGPT?

Sa kabila ng mga nabanggit na hakbang, ang mga organisasyon ay dapat gumawa ng mga proactive na hakbang upang mapangalagaan ang kanilang data. Ito ay dahil ang paggamit ng ChatGPT at iba pang nakikipag-usap na AI chatbots ay may mga panganib sa seguridad na dapat malaman ng mga organisasyon. Kasama sa mga panganib sa AI chatbot ang:

  • Mga Paglabas ng Data – Paglalantad ng sensitibong data ng organisasyon sa mga bago, panlabas na user. Ito ay maaaring mangyari kapag ang mga empleyado ay nag-type o nag-paste ng sensitibong impormasyon tulad ng source code, PII, o mga plano sa negosyo, ang LLM ay sinanay dito, at ang data ay ginagamit sa isa pang output para sa ibang user.
  • Panloob na Maling Paggamit – Hindi naaangkop na paggamit ng teknolohiya para sa hindi awtorisado o hindi etikal na mga gawain, tulad ng pagbuo ng mapanlinlang na nilalaman o pagsasagawa ng mga gawain na lumalabag sa mga patakaran ng kumpanya o mga legal na kinakailangan.
  • Suporta sa Nakakahamak na Pag-atake – Kapag sinasamantala ng mga umaatake ang mga chatbot para sa pagsulong ng kanilang mga pag-atake. Maaaring kabilang dito ang pagpapahusay ng mga pagtatangka sa phishing o panghuhuli ng balyena, pagkalat o pagbuo ng malware, pagbuo ng mga password para sa mga brute force na pag-atake, o pagkalat ng maling impormasyon upang lumikha ng kaguluhan.

Matuto nang higit pa tungkol sa mga panganib sa seguridad ng ChatGPT

Ihanda ang iyong Kumpanya para sa ChatGPT at AI Chatbots

Ang mga organisasyon ay maaaring gumawa ng ilang mga madiskarteng hakbang upang ihanda ang kanilang mga manggagawa para sa pagsasama at paggamit ng AI Chatbots. Titiyakin nito ang isang maayos na paglipat sa paggamit ng mga bagong tool na ito at magbibigay-daan para sa secure na produktibo. Ang mga hakbang na dapat gawin ay kinabibilangan ng:

  • Edukasyon at Kamalayan – Pagtuturo sa iyong mga empleyado tungkol sa AI Chatbots at ang kanilang potensyal na epekto sa organisasyon. Saklaw ang pagiging produktibo, etikal na paggamit, at mga aspeto ng seguridad. Mag-host ng mga workshop, seminar at mga sesyon ng pagsasanay upang ipaliwanag kung paano gumagana ang mga chatbot na ito, ang kanilang mga kakayahan, at ang kanilang mga limitasyon. Makakatulong ang kamalayan na matiyak na ang mga empleyado ay nakikibahagi at nalalaman ang pangangailangang magsanay ng ligtas na paggamit ng ChatGPT.
  • Mga Proseso at Kasanayan – Tayahin kung saan ang mga panganib sa seguridad ng paggamit ng ChatGPT ay ang pinakamataas. Tukuyin kung aling mga departamento ang mas malamang na maling gumamit ng mga generative AI chatbots, tulad ng engineering, finance, o legal. Pagkatapos, bumuo ng mga proseso na tumutukoy kung paano magagamit ng mga empleyado ang ChatGPT, para sa aling mga layunin at kailan. Halimbawa, ang mga inhinyero ay maaaring gumamit ng ChatGPT hangga't walang mga Sikreto sa code, ang pananalapi ay maaari lamang gumamit ng isang self-host na LLM, o para sa mga law firm na ipatupad ang mga patakaran ng DLP. Magpatupad ng mga guardrail para ipatupad ang mga ito at protektahan ang iyong data.
  • Security Panukala – Pumili ng isang platform na maaaring pamahalaan kung paano ginagamit ng mga empleyado ang ChatGPT, habang nagbibigay ng visibility at pinapayagan ang IT na harangan o kontrolin kung aling mga uri ng data ang maaaring ipasok. Makakatulong ang isang Enterprise Browser Extension.

Paano Pinoprotektahan ng LayerX ang Data mula sa Leakage ChatGPT at Iba pang AI Chatbots

Extension ng Enterprise Browser ng LayerX epektibong binabawasan ang panganib sa data ng organisasyon na nagmumula sa ChatGPT at mga katulad na platform ng generative AI. Ginagawa ito sa pamamagitan ng pagsasaayos ng mga patakaran na tumutukoy kung aling data ang maaaring ipasok sa ChatGPT, habang nag-aalok din ng detalyadong visibility at insight sa mga aksyon ng user sa loob ng kanilang mga browser. Bilang karagdagan, maaaring pigilan o limitahan ng LayerX ang paggamit ng mga extension ng browser ng ChatGPT. Binibigyang-daan ng LayerX ang secure na produktibidad para ma-enjoy ng lahat ng organisasyon ang paggamit ng ChatGPT nang hindi nalalagay sa panganib ang kanilang intelektwal na ari-arian o data ng customer.

Matutunan kung paano protektahan laban sa pagkawala ng data ng ChatGPT.