[특별기고] AI 애플리케이션을 위한 데이터 보호 전략
[특별기고] AI 애플리케이션을 위한 데이터 보호 전략
  • 디지털경제뉴스
  • 승인 2024.10.29 17:52
  • 댓글 0
이 기사를 공유합니다

한국 델 테크놀로지스 스토리지 세일즈 총괄 이경근 전무
한국 델 테크놀로지스 이경근 전무
한국 델 테크놀로지스 이경근 전무

[디지털경제뉴스] 챗GPT를 필두로 생성형 AI 애플리케이션의 개발이 빠르게 확산되고 있다. 의료, 금융, 유통, 제조 등 다양한 산업 분야에서 복잡한 문제를 해결하고 워크플로우를 최적화하며 중대한 의사결정을 내릴 수 있는 강력한 AI 도구들이 등장하면서, 미션 크리티컬 분야에서도 사용 사례도 점점 늘어나고 있다.

많은 기업들이 기존의 전통적인 워크로드에 대해서는 보안 및 데이터 보호의 중요성을 오래전부터 인식하고, 그에 따른 접근 방식과 모범 사례가 많이 알려져 있다. 반면, AI 애플리케이션에 대해서는 기존의 데이터 보호 방식 뿐만 아니라 AI의 태생적 특성을 고려한 요구 사항을 점검해야 한다.

데이터 소스 보호 = 다른 중요한 워크로드와 마찬가지로, AI 애플리케이션 보호의 기본은 데이터 소스를 보호하는 것이다. 데이터는 궁극적으로 AI 모델의 정확성과 전반적인 유용성으로 이어진다. AI 애플리케이션을 개발할 때 다양한 데이터 소스에서 얻은 자체 보유 데이터를 활용하여 모델을 학습하거나 미세 조정하는데, IT 부서에서 어떤 데이터 소스가 AI 모델 학습에 활용되고 있는지 파악하고, 기존 데이터 보호 정책이 AI 모델 학습에 필요한 복구 지점 목표(RPO) 및 복구 시간 목표(RTO)에 대한 서비스 수준을 충족하는지 확인해 데이터 가용성을 보장해야 한다.

안전한 데이터 접근 환경을 마련하는 것도 중요하다. AI 모델의 결과는 학습된 데이터의 직접적인 결과인데, 이른바 ‘데이터 중독’에 노출될 경우, 악의적인 학습 데이터 수정으로 결과 모델이 변경되어 부정확하거나 원치 않는 결과가 생성될 수 있다. 데이터 중독에 대비하기 위해 기업들은 역할 기반 액세스 제어(RBAC), 멀티 팩터 인증(MFA), 개인정보 보호 정책 등을 통해 모델 학습에 사용되는 데이터에 대한 액세스를 보호하고 제한하는 것이 필요하다.

모델 트레이닝은 제한된 기간 동안 이루어지지만, 여기에 사용된 데이터는 장기간 보호가 필요할 수 있다. 향후 모델 트레이닝에 재사용하거나 감사 목적으로 데이터를 유지해야 하는 경우들이 있기 때문이다. 비활성 학습 데이터를 장기 보관할 때에는 데이터 아카이빙 절차를 수립해서 비용 효율적으로 데이터를 유지하면서 데이터를 안전하게 보관하고 검색할 수 있도록 보장해야 한다.

AI 애플리케이션을 구현할 때에 학습 데이터 외에도 추가적으로 보호해야 하는 데이터 소스가 있다. 최근 트렌드는 AI에서 검색 증강 생성(RAG)을 사용하여 추론하는 동안 모델에 추가 컨텍스트를 제공하는 것인데, RAG를 활용하려면 추가 데이터 또한 보호해야 한다. 모델 학습과 달리 추론은 AI 모델의 수명이 다할 때까지 계속 진행되는 프로세스이다. 학습 데이터와 마찬가지로, RAG를 위한 추가 데이터가 오염되면 부정확하거나 바람직하지 않은 결과가 초래될 수 있다. RAG에 사용되는 데이터 또한 백업 및 복구할 수 있고 적절한 액세스 제어 메커니즘을 갖추어야 한다.

◆AI 모델 보호 = AI 모델 학습에 소요되는 시간은 몇 시간에서 몇 주에 이르기까지 상당할 수 있는데, 이 프로세스가 중단되면 심각한 차질이 발생하게 된다. 학습하는 동안 모델의 중간 상태를 체크포인트로 저장하고, 이를 일정한 간격으로 생성하여 오류가 발생하더라도 진행을 재개할 수 있도록 해야 치명적인 중단을 막을 수 있다. 모델 체크포인트의 2차 복사본을 생성하고 보관하면 향후에 또다른 모델을 학습시키거나 현재 모델을 이전 상태로 롤백해야 하는 경우 유용하게 사용할 수 있다.

코딩된 로직에 따라 작동하는 기존 프로그램과 달리, AI 모델은 내부 작동을 쉽게 해독하기 어려운 블랙박스처럼 작동하는 모델 가중치에 의존한다. 공격자는 학습 데이터 수정을 통해 AI 모델의 출력에 영향을 미칠 수 있으며, 이러한 악의적인 공격자가 모델 자체에 액세스할 수 있는 경우 학습 데이터에 액세스하지 않더라도 모델의 가중치를 변경하여 모델을 손상시킬 수 있다.

기존의 전통적인 애플리케이션들은 개발자가 코드와 로직에 익숙하지만, AI 애플리케이션에서는 AI 모델의 블랙박스 특성으로 인해 모델 가중치 변경을 탐지하거나 이해하기가 어려울 수 있다. 이러한 공격을 방어하기 위해 IT 조직은 AI 모델에 대한 액세스를 제한하고 변경 또는 이상 징후를 감지할 수 있어야 하며, 문제가 발생할 경우 모델을 안전하고 신속하게 복원이 가능해야 한다.

◆데이터 개인정보 보호, 컴플라이언스 준수 및 규제 = 학습과 추론 영역에서 개인 정보나 민감한 데이터와 관련한 규정을 준수하는 것 또한 매우 중요하다. 학습 데이터 세트에 개인 데이터가 사용되는 경우 이를 인지하고 있어야 하며, 개인 데이터를 식별하고 모든 규정에 맞춰 저장해야 한다. AI가 특정 개인 데이터를 출력 값으로 내놓으면 안 되며, AI를 개발하는 조직에서는 AI 애플리케이션의 결과물을 제한할 수 있는 제어 장치를 마련해야 한다.

추론 과정에서도 개인 식별 정보(PII)와 같은 민감한 데이터가 추가 입력되어 사용될 수 있다. 여기에는 의료 관련 애플리케이션, 안면 인식 모델 또는 AI 기반 채용 심사 솔루션이 포함될 수 있다. 이러한 데이터를 수신하는 애플리케이션은 민감 데이터를 감지하고 안전하게 저장하는 것이 중요하다.

AI 애플리케이션 보호를 위한 인프라 솔루션 = AI 환경을 안전하게 보호하기 위해서는 다양한 소스에 대한 백업 및 재해 복구 방안이 필요하다. 예를 들자면 현재 진행중인 학습 상황이나 다양한 모델 버전에 걸쳐 애플리케이션 상태를 지속적으로 캡처하여 백업하면 장애 발생시 더 빠르고 안정적으로 서비스를 복원할 수 있다. ‘델 파워프로텍트 데이터 매니저(Dell PowerProtect Data Manager)’는 이러한 요구사항을 아우르는 폭넓은 기능과 백업 오케스트레이션 자동화를 지원한다. AI 데이터와 현재 상태를 정기적으로 캡처할 수 있으므로 데이터 손실과 기본 모델 개발에 소요되는 시간과 노력을 줄일 수 있다. 또한 쿠버네티스 및 컨테이너 지원을 제공하므로 최신 AI 애플리케이션에 적합하다. AI 데이터나 모델은 온프레미스, 클라우드 및 엣지 등 다양한 장소에 분산될 수 있는데 이러한 시나리오에서 ‘델 파워프로텍트 데이터 매니저’는 클라우드에 제한되지 않는 백업을 제공하기 때문에 중앙 콘솔에서 분산 환경에 대한 백업을 관리할 수 있다.

파워프로텍트 데이터 매니저와 함께 ‘델 파워프로텍트 데이터 도메인(Dell PowerProtect Data Domain)’ 시스템을 활용하면 AI 워크로드를 위한 스토리지 확장성을 극대화할 수 있다. 데이터 도메인은 데이터를 소스 장비에서 타겟 장비로 전송하는 동안 ‘인라인’ 방식의 데이터 중복제거를 수행할 수 있는데, 이를 통해 백업 및 복구 성능에 미치는 영향은 최소화하면서, 최대 65배에 달하는 강력한 중복 제거율을 달성할 수 있다. 이러한 접근 방식은 많은 AI 애플리케이션에 공통적으로 사용되는 대규모 데이터 세트를 비용 효율적으로 저장할 수 있도록 지원한다. 이를 통해 스토리지 공간을 절약할 뿐만 아니라 데이터 복구 시간도 단축한다.

이제 AI 애플리케이션은 실험적인 수준을 벗어나 기업의 비즈니스 운영 및 성과에 필수적인 영역으로 확대되는 수준에 놓여있다. 개념 증명을 넘어 미션 크리티컬 애플리케이션으로 발전함에 따라 관련 데이터 보호 및 사이버 보안 고려 사항을 우선순위로 고려해야 하며, 이 과정에서 AI 고유의 특성을 이해하고 이에 적합한 데이터 보호 솔루션을 갖춰야 할 때다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.