투명성
사용자, 개발자, 규제 기관 및 일반 대중을 포함한 이해 관계자들이 AI 시스템을 이해하고 설명할 수 있도록 만드는 것.
실용적인 구현
인공지능 알고리즘의 작동 방식, 사용하는 데이터, 그리고 의사 결정 과정에 대한 명확한 문서화가 필요합니다.
책임
인공지능 시스템의 결과에 대해 개인, 조직 또는 정부가 책임을 져야 할 의무.
실용적인 구현
인공지능 관련 결정, 행동 및 결과에 대한 책임 소재를 명확히 규정하고, 법적 틀, 감독 기구, 인공지능 사용으로 인해 발생하는 불만이나 고충 처리 절차 등 이해관계자의 책임을 묻는 메커니즘을 구축해야 합니다.
윤리적 사용
공정성, 투명성, 책임성 등의 윤리적 원칙에 부합하게 AI 시스템을 설계, 배포 및 관리합니다.
실용적인 구현
LLM 개발 프로세스에 안전장치를 추가하여 데이터 세트와 교육 결과를 검토하고 인구 통계학적 요인에 관계없이 모든 개인에게 공평한 결과를 지원하도록 보장합니다.
지속적인 모니터링
LLM의 예상 동작에서 벗어나는 부분을 감지하여 편향이나 보안 위협과 같은 위험을 완화하고, 시스템이 윤리적 기준 및 법적 요구 사항에 따라 운영되도록 보장합니다.
실용적인 구현
위에서 설명한 바와 같이 성능 지표, 보안 취약점, 윤리 준수 및 규제 준수, 그리고 안전장치에 대한 지속적인 추적이 이루어져야 합니다. 이러한 사항들은 피드백 루프에 통합되어야 합니다.
이해 관계자 참여
인공지능 기술을 규율하는 윤리적 지침, 규제 체계 및 모범 사례를 정의하는 데 관여하는 사람들.
실용적인 구현
개발자, 연구원, 정책 입안자, 규제 기관, 업계 대표, 영향을 받는 지역 사회 및 일반 대중을 초대하고 참여시킵니다. 인공지능 시스템의 개발, 배포 및 사용 전반에 걸쳐 다양한 관점, 우려 사항 및 전문 지식이 고려되도록 보장합니다.
개인정보보호
개인이 자신의 개인 데이터를 관리할 권리를 보호하고, 데이터의 전체 수명 주기 동안 기밀성과 무결성을 보장합니다.
실용적인 구현
데이터 익명화, 암호화, 안전한 저장 및 전송, 그리고 GDPR 또는 CCPA와 같은 데이터 보호 규정 준수.
보안
인공지능 시스템을 무단 접근, 악의적인 공격 및 데이터 유출로부터 보호하고, 조직이 민감한 데이터를 인공지능 시스템에 제출하는 것을 방지하기 위해 시행된 조치 및 관행.
실용적인 구현
안전한 코딩 관행, 민감 데이터 암호화, 정기적인 취약성 평가 및 침투 테스트, 접근 제어 및 인증 메커니즘, 비정상적인 활동 또는 잠재적 위협 모니터링, 사고 발생 시 신속한 대응, 기업용 브라우저 확장 프로그램 사용 GenAI DLP.
설명 가능성
인공지능 시스템이 자신의 결정과 행동에 대해 이해하기 쉬운 설명을 제공할 수 있는 능력.
실용적인 구현
사람이 이해하기 쉬운 설명을 생성하고, 의사 결정 과정을 시각화하며, 의사 결정이 입력 데이터 및 모델 특징에 어떻게 영향을 미쳤는지 추적합니다.
-
이해 관계자 참여
-
개인정보보호
-
보안
-
설명 가능성