서브메뉴

본문

적대적 머신러닝 (머신러닝 알고리즘으로 하는 시스템 보안 공격과 방어)
적대적 머신러닝 (머신러닝 알고리즘으로 하는 시스템 보안 공격과 방어)
저자 : 앤서니 조셉|블레인 넬슨|벤자민 루빈슈타인|J. D. 타이가
출판사 : 에이콘출판
출판년 : 2020
ISBN : 9791161754208

책소개

이메일 스팸과 네트워크 보안에 관한 사례 연구를 포함해 시스템의 보안을 분석하고 적대적인 환경에서 강건한 머신러닝 알고리즘을 구축하는 데 필요한 이론과 실용적인 기술을 모두 다루고 있어, 컴퓨터 보안과 머신러닝 분야의 연구자와 실무자, 학생에게 많은 도움이 될 것이다.

★ 이 책의 다루는 내용 ★
저명한 연구자들이 서술한 이 완벽한 입문서는 적대적(敵對的) 환경(adversarial environment)에서 강건한 머신러닝(robust machine learning)을 구축하는 데 필요한 모든 이론과 도구를 제공한다. 공격자가 통계적 추론을 조작하려고 데이터를 적극적으로 중독시킬 때 머신러닝 시스템을 어떻게 적용할 수 있는지 알아본다. 시스템 보안을 조사하고, 강건한 데이터 분석을 수행할 수 있는 최신 실용 기술을 배우며, 최신 사이버 공격의 추세에 효과적인 대책을 설계할 수 있는 새로운 접근 방식에 대한 통찰력도 얻을 수 있을 것이다. 또한 프라이버시 보호 메커니즘(privacy-preserving mechanism)과 분류기(classifier)에 대한 근사-최적 회피(near-optimal evasion)를 자세히 설명하고, 스팸 메일과 네트워크 보안에 관한 심층적인 인스턴스 연구 결과를 통해 전통적인 머신러닝 알고리즘을 성공적으로 공격하는 방법도 소개한다. 이 분야의 현재 기술 수준과 미래 방향의 개요를 빈틈없이 제공하는 이 획기적인 작업은 컴퓨터 보안과 머신러닝 분야의 연구자와 실무자, 학생, 사이버보안 군비 경쟁의 다음 단계를 배우려는 사람에게 꼭 필요한 책이다.
[교보문고에서 제공한 정보입니다.]

출판사 서평

★ 이 책의 다루는 내용 ★
저명한 연구자들이 서술한 이 완벽한 입문서는 적대적(敵對的) 환경(adversarial environment)에서 강건한 머신러닝(robust machine learning)을 구축하는 데 필요한 모든 이론과 도구를 제공한다. 공격자가 통계적 추론을 조작하려고 데이터를 적극적으로 중독시킬 때 머신러닝 시스템을 어떻게 적용할 수 있는지 알아본다. 시스템 보안을 조사하고, 강건한 데이터 분석을 수행할 수 있는 최신 실용 기술을 배우며, 최신 사이버 공격의 추세에 효과적인 대책을 설계할 수 있는 새로운 접근 방식에 대한 통찰력도 얻을 수 있을 것이다. 또한 프라이버시 보호 메커니즘(privacy-preserving mechanism)과 분류기(classifier)에 대한 근사-최적 회피(near-optimal evasion)를 자세히 설명하고, 스팸 메일과 네트워크 보안에 관한 심층적인 인스턴스 연구 결과를 통해 전통적인 머신러닝 알고리즘을 성공적으로 공격하는 방법도 소개한다. 이 분야의 현재 기술 수준과 미래 방향의 개요를 빈틈없이 제공하는 이 획기적인 작업은 컴퓨터 보안과 머신러닝 분야의 연구자와 실무자, 학생, 사이버보안 군비 경쟁의 다음 단계를 배우려는 사람에게 꼭 필요한 책이다.


★ 옮긴이의 말 ★
알파고 이후로 한국에도 머신러닝의 시대가 본격적으로 시작돼 여러 분야에서 머신러닝이 사용되고 있다. 특히 보안 분야에서 머신러닝을 사용한 솔루션이 활발하게 개발되고 국가적으로 활용되고 있다. 이 책은 보안 분야에 중점을 두고 있어 현업 보안 담당자와 보안 관련 머신러닝 종사자들에 적합한 책이며 예측하지 못한 적대적인 상황에 대해 기술적 개요를 제공하고 공격의 일반적인 방법을 제시한다. 보안 분야에 관심이 있는 머신러닝 종사자와 현업 개발자들에게 도움이 되리라 확신한다.
김우석

머신러닝을 처음 접했을 때, 머신러닝은 우리에게 도움이 되는 일을 하는 알고리즘이라고 생각했다. 그러나 이 책을 접하고 나서는 생각이 바뀌었다. 우리에게 이로운 일을 하는 머신러닝 알고리즘이 제대로 작동하지 못하도록 다른 머신러닝 알고리즘을 이용해 공격하는 일이 영화가 아닌 현실에서 일어나고 있다. 우리가 알지 못하는 사이에 머신러닝 알고리즘 간에 공격과 방어라는 총성 없는 전쟁이 진행 중이다. 보안에 종사하고 있거나 관심이 있는 사람들은 공격자에게 뒤처지지 않도록 최신 트렌드의 공격 기법과 그에 대응하는 방어 기법에 익숙해져야 할 것이다. 이 책은 이런 사람들에게 도움이 되리라 확신한다.
장기식

처음 한 걸음. 인생에서 방향을 정하고 한 걸음을 내딛는 것은 항상 설렘이 있다. 연구 주제를 정하고 많은 논문을 검토하고, 새로운 아이디어를 도출해서 실험하고, 논문을 작성해서 발표하는 것처럼 오랜 시간을 준비하는 일을 수십 년 동안 해오면서 마음 한편에 책을 번역하거나 직접 써 보고 싶다는 생각은 항상 있었다.
미래 인터넷 연구를 진행하면서 머신러닝과 미래 인터넷 기술을 접목하는 방법을 고민하던 중이라 방대한 연구 결과를 리뷰하고 정리한 이 책은 개인적인 연구에도 많은 도움이 된다. 데이터 분석에 의존해 상황을 학습하고 판단하고 결정하는 머신러닝의 기본적인 절차에 있어서 학습과 시험에 사용되는 데이터의 무결성과 정확성은 머신러닝의 성능을 좌우하는 가장 중요한 요소일 것이다. 그러므로 머신러닝 시스템을 공격 대상으로 한 공격자에게 이 학습 데이터는 가장 흥미로운 재료일 수밖에 없다. 이 책은 이와 같은 학습 데이터의 신뢰를 떨어뜨릴 수 있는 다양한 공격 가능성에 대해 그동안 연구된 방대한 분량의 연구 결과를 자세히 설명한다. 머신러닝을 연구하는 사람에겐 연구의 새로운 방향을 찾는 데 도움이 될 것이며, 실제 서비스에 머신러닝을 적용하는 개발자에게는 어려운 수식을 전부 이해하지 않더라도 공격 기법을 이해하고 이에 대한 대응책 마련에 활용할 수 있을 것으로 기대된다.
김대엽
[예스24에서 제공한 정보입니다.]

목차정보

1부. 적대적 머신러닝의 개요



1장. 소개

1.1 동기

1.2 원칙에 입각한 시큐어 학습

1.3 시큐어 학습과 관련된 연구 동향

1.4 개요



2장. 배경 및 표기법

2.1 기본 표기법

2.2 통계적 머신러닝

2.2.1 데이터

2.2.2 가설공간

2.2.3 학습 모델

2.2.4 지도 학습

2.2.5 다른 학습 패러다임



3장. 시큐어 학습을 위한 프레임워크

3.1 학습 단계 분석

3.2 보안 분석

3.2.1 보안 목표

3.2.2 위협 모델

3.2.3 보안에서 머신러닝 응용프로그램에 관한 설명

3.3 프레임워크

3.3.1 분류 체계

3.3.2 적대적 학습 게임

3.3.3 적대적 능력의 특징

3.3.4 공격

3.3.5 방어

3.4 탐색적 공격

3.4.1 탐색적 게임

3.4.2 탐색적 무결성 공격

3.4.3 탐색적 가용성 공격

3.4.4 탐색적 공격에 대한 방어

3.5 인과적 공격

3.5.1 인과적 게임

3.5.2 인과적 무결성 공격

3.5.3 인과적 가용성 공격

3.5.4 인과적 공격에 대한 방어

3.6 반복 학습 게임

3.6.1 보안에서의 반복 학습 게임

3.7 프라이버시 보호 학습

3.7.1 차등 프라이버시

3.7.2 탐색적, 인과적 프라이버시 공격

3.7.3 임의성을 무시한 유용성



2부. 머신러닝에 관한 인과적 공격



4장. 초구 학습기를 대상으로 하는 공격

4.1 초구 탐지기에 대한 인과적 공격

4.1.1 학습 가정

4.1.2 공격 가정

4.1.3 해석적 방법론

4.2 초구 공격 설명

4.2.1 중심 이동

4.2.2 공격의 형식적 표현

4.2.3 공격 수열의 특징

4.3 최적 무제한 공격

4.3.1 최적 무제한 공격: 블록 쌓기

4.4 공격에 시간 제약 조건 추가

4.4.1 가변 질량의 블록 쌓기

4.4.2 대안 공식

4.4.3 최적 완화 해

4.5 데이터 치환 재교육을 대상으로 하는 공격

4.5.1 평균제거 치환과 임의제거 치환 정책

4.5.2 최근접제거 치환 정책

4.6 제한된 공격자

4.6.1 탐욕 최적 공격

4.6.2 혼합 데이터 공격

4.6.3 확장

4.7 요약



5장. 가용성 공격 사례 연구: 스팸베이즈

5.1 스팸베이즈 스팸 필터

5.1.1 스팸베이즈 훈련 알고리즘

5.1.2 스팸베이즈 예측

5.1.3 스팸베이즈 모델

5.2 스팸베이즈의 위협 모델

5.2.1 공격자의 목표

5.2.2 공격자의 지식

5.2.3 훈련 모델

5.2.4 오염 가정

5.3 스팸베이즈 학습기에 대한 인과적 공격

5.3.1 인과적 가용성 공격

5.3.2 인과적 무결성 공격-유사 스팸

5.4 부정적인 영향 거부(RONI) 방어

5.5 스팸베이즈 실험

5.5.1 실험 방법

5.5.2 사전 공격 결과

5.5.3 집중 공격 결과

5.5.4 유사 스팸 공격 실험

5.5.5 부정적인 영향 거부 결과

5.6 요약



6장. 무결성 공격 사례 연구: PCA 탐지기

6.1 이상 트래픽 탐지를 위한 PCA 방법

6.1.1 트래픽 행렬과 용량 이상

6.1.2 이상 탐지를 위한 부분공간 방법

6.2 PCA 부분공간의 오염

6.2.1 위협 모델

6.2.2 정보 없이 쭉정이 선택

6.2.3 국소 정보 쭉정이 선택

6.2.4 전역 정보 쭉정이 선택

6.2.5 개구리 삶기 공격

6.3 오염에 복원력이 있는 탐지기

6.3.1 직감

6.3.2 PCA-격자

6.3.3 강건한 라플라스 한계점

6.4 경험적 평가

6.4.1 설정

6.4.2 취약한 흐름 식별

6.4.3 공격 평가

6.4.4 해독제 평가

6.4.5 개구리 삶기 중독 공격의 경험적 평가

6.5 요약



3부. 머신러닝에 대한 탐색적 공격



7장. SVM 학습의 프라이버시 보호 메커니즘

7.1 프라이버시 침해 사례 연구

7.1.1 매사추세츠주 공무원 건강 기록

7.1.2 AOL 검색 질의 로그

7.1.3 넷플릭스 영화 평가 데이터 예측 대회

7.1.4 가명 기반의 트위터의 탈익명화

7.1.5 전장유전체연관분석

7.1.6 마이크로타기팅 광고

7.1.7 교훈

7.2 문제 설정: 프라이버시 보호 학습

7.2.1 차등 프라이버시

7.2.2 유용성

7.2.3 차등 프라이버시의 역사적 연구 방향

7.3 SVM: 간략한 소개

7.3.1 평행변환 -불변 커널

7.3.2 알고리즘 안전성

7.4 출력 섭동에 의한 차등 프라이버시

7.5 목표 섭동에 의한 차등 프라이버시

7.6 유한차원 특성공간

7.7 최적 차등 프라이버시에 대한 경계

7.7.1 상계

7.7.2 하계

7.8 요약



8장. 분류기의 근사-최적 회피

8.1 근사 -최적 회피 특징

8.1.1 적대적 비용

8.1.2 근사 -최적 회피

8.1.3 탐색 용어

8.1.4 승법 최적성 대 가법 최적성

8.1.5 볼록 -유도 분류기 모임

8.2 비용에 대한 볼록 클래스의 회피

8.3 일반 lp 비용에 대한 회피

8.3.1 볼록 양의 집합

8.3.2 볼록 음의 집합

8.4 요약

8.4.1 근사 -최적 회피에 관한 미해결 문제

8.4.2 대안 회피 기준

8.4.3 실제 회피



4부 적대적 머신러닝의 연구 방향



9장. 적대적 머신러닝의 도전 과제

9.1 토론과 미해결 문제

9.1.1 적대적 게임의 미개척 구성 요소

9.1.2 방어 기술 개발

9.2 미해결 문제 검토

9.3 끝맺는 말



부록



부록 A. 학습과 초기하학의 배경

A.1 일반적인 배경 주제 개요

A.2 초구 덮개

A.3 초입방체 덮개



부록 B. 초구 공격에 대한 전체 증명

B.1 정리 4.7의 증명

B.2 정리 4.14의 증명

B.3 정리 4.15의 증명

B.4 정리 4.16의 증명

B.5 정리 4.18의 증명



부록 C. 스팸베이즈 분석

C.1 스팸베이즈의 I(·) 메시지 점수

C.2 스팸베이즈에 대한 최적 공격 구성



부록 D. 근사-최적 회피에 대한 전체 증명
[알라딘에서 제공한 정보입니다.]

QuickMenu