현재 위치
홈상품상세정보
*도서소개
AI 모범 사례와 위험 관리 프로세스 제대로 알고 활용하기
모든 기술이 그렇듯이 ML도 의도하지 않은 오용이나 의도적인 남용 때문에 실패할 수 있다. 조직과 대중이 이 흥미로운 기술의 진정한 이점을 활용하려면 그러한 위험 요인을 완화해야 한다. 이 책이 준수하려는 초기 표준이 최근 조금씩 구체화되기 시작했지만, 머신러닝 실무에서는 아직 널리 인정받는 전문 자격증이나 모범 사례가 부족하다. 따라서 머신러닝 기술이 세상에 배포될 때 해당 기술의 결과에 대한 책임을 실무자가 떠안아야 하는 실정이다.
이 책은 실무자가 AI 모델 위험관리 프로세스를 제대로 이해하고, 일반적인 파이썬 도구를 사용해 설명 가능한 모델을 학습하며 안전성, 편향 관리, 보안, 프라이버시 문제를 관리하는 새로운 방법을 제공한다. ML의 리스크를 제거하는 미묘한 접근 방식을 취함으로써, 책임감 있고 지속 가능한 방식으로 ML 시스템을 성공적으로 배포할 수 있는 귀중한 리소스를 독자들에게 제공한다.
*출판사도서소개
유럽연합 의회는 인공지능 기술을 안전하고 윤리적으로 사용할 수 있도록 하는 규제법안인 인공지능법(AI Act)을 최근 승인했습니다. 이 법안은 인공지능 시스템의 개발, 배포, 사용에 대한 엄격한 규제를 마련해 인공지능 기술의 잠재적 위험성을 관리하고, 사람 중심의 인공지능 기술 발전을 촉진할 목적으로 제정되었습니다. 이 법안은 인공지능 기술을 ‘허용할 수 없는’ 기술부터 고위험, 중위험, 저위험으로 분류하며 ‘허용할 수 없는’ 기술은 금지합니다.
이 책은 저자들이 경험한 실제 사례와 연구 결과를 통해 머신러닝 기술을 고위험 애플리케이션에 성공적으로 적용하는 방법을 보여줍니다. 또한, 유럽연합의 인공지능 규제법안의 주요 내용과 미국 위험관리 프레임워크 관련성을 분석하고 법안 준수를 위한 구체적인 방안을 제시합니다. 주로 다루는 내용은 다음과 같습니다.
ㆍ 편향 및 윤리 문제: 모델 개발 과정에서 발생할 수 있는 편향과 윤리 문제 해결 및 완화 방법
ㆍ 모델 설명 및 책임감: 고위험 애플리케이션에서 머신러닝 모델의 설명 가능성과 책임감 확보 방법
ㆍ 모델 평가 및 검증: 고위험 애플리케이션에서 머신러닝 모델의 성능과 신뢰성 평가 및 검증 방법
ㆍ 모델 배포 및 관리: 고위험 애플리케이션에서 머신러닝 모델을 안전하고 효율적으로 배포 및 관리하는 방법
주요 내용
ㆍ 책임 있는 AI를 위한 기술적 접근 방식 이해하기
ㆍ 성공적이고 영향력 있는 AI 위험 관리 사례를 만드는 방법 알아보기
ㆍ AI 기술 채택을 위한 기존 표준, 법률 및 평가 관련 기본 가이드 확인하기
ㆍ 새로운 NIST AI 위험 관리 프레임워크 살펴보기
ㆍ 깃허브 및 코랩의 대화형 리소스 활용하기
*목차
1장 현대의 머신러닝 위험관리
_1.1 법률 및 규제 환경 개요
_1.2 권위 있는 모범사례
_1.3 AI 사고
_1.4 머신러닝 위험관리를 위한 문화적 역량
_1.5 머신러닝 위험관리를 위한 조직 프로세스
_1.6 사례 연구: 질로우 아이바잉 사업의 흥망성쇠
_1.7 참고 자료
2장 해석 및 설명 가능한 머신러닝
_2.1 해석 가능성 및 설명 가능성에 관한 중요 아이디어
_2.2 설명 가능한 모델
_2.3 사후 설명
_2.4 실무에서 사후 설명의 고질적 문제
_2.5 설명 가능한 모델과 사후 설명의 결합
_2.6 사례 연구: 알고리즘 채점
_2.7 참고 자료
3장 안전성과 성능을 높이는 머신러닝 시스템 디버깅
_3.1 훈련
_3.2 모델 디버깅
_3.3 배포
_3.4 사례 연구: 자율주행차 사망 사고
_3.5 참고 자료
4장 머신러닝 편향관리
_4.1 ISO 및 NIST의 편향 정의
_4.2 미국의 머신러닝 편향에 대한 법적 개념
_4.3 머신러닝 시스템의 편향을 경험하는 경향이 있는 사람
_4.4 사람들이 경험하는 피해
_4.5 편향 테스트
_4.6 편향 완화
_4.7 사례연구: 편향 버그 바운티
_4.8 참고 자료
5장 머신러닝 보안
_5.1 보안 기초
_5.2 머신러닝 공격
_5.3 일반적인 머신러닝 보안 문제
_5.4 대응책
_5.5 사례 연구: 실제 우회 공격
_5.6 참고 자료
[2부_ 인공지능 위험관리 실행하기]
6장 설명 가능한 부스팅 머신과 XGBoost 설명
_6.1 개념 복습: 머신러닝 투명성
_6.2 일반화가법모형 계열의 설명 가능한 모델
_6.3 제약조건과 사후 설명이 있는 XGBoost
_6.4 참고 자료
7장 파이토치 이미지 분류기
_7.1 흉부 엑스레이 분류 설명
_7.2 개념 복습: 설명 가능한 모델과 사후 설명 기법
_7.3 설명 가능한 모델
_7.4 파이토치 이미지 분류기 훈련 및 설명
_7.5 결론
_7.6 참고 자료
8장 XGBoost 모델 선택 및 디버깅
_8.1 개념 복습: 머신러닝 디버깅
_8.2 더 좋은 XGBoost 모델 선택하기
_8.3 XGBoost 민감도 분석
_8.4 XGBoost 잔차 분석
_8.5 선택한 모델 개선하기
_8.6 결론
_8.7 참고 자료
9장 파이토치 이미지 분류기 디버깅
_9.1 개념 복습: 딥러닝 디버깅
_9.2 파이토치 이미지 분류기 디버깅하기
_9.3 결론
_9.4 참고 자료
10장 XGBoost를 사용한 편향 테스트 및 개선
_10.1 개념 복습: 편향관리
_10.2 모델 훈련
_10.3 모델의 편향 평가
_10.4 편향 개선
_10.5 결론
_10.6 참고 자료
11장 레드 팀 XGBoost
_11.1 개념 복습
_11.2 모델 훈련
_11.3 레드 팀 공격
_11.4 결론
_11.5 참고 자료
[3부_ 결론]
12장 고위험 머신러닝에서 성공하는 방법
_12.1 프로젝트 참여 대상
_12.2 과학 대 공학
_12.3 발표된 결과와 주장에 대한 평가
_12.4 외부 표준 적용하기
_12.5 상식적인 위험완화
_12.6 결론
_12.7 참고 자료
부록
찾아보기
상품필수 정보
도서명 | 머신러닝 리스크 관리 with 파이썬 | ||
---|---|---|---|
저자/출판사 | 패트릭 홀,제임스 커티스,파룰 판데이 / 한빛미디어 | ||
크기/전자책용량 | 183x235x22 | ||
쪽수 | 552 | ||
제품 구성 | 낱권 | ||
발행일 | 2024-05-10 | ||
목차 또는 책소개 | 상세설명 참조 |
배송안내
- 배송비 : 기본배송료는 2,500원 입니다. (도서,산간,오지 일부지역은 배송비가 추가될 수 있습니다)
- 본 상품의 평균 배송일은 3일입니다.(입금 확인 후) 설치 상품의 경우 다소 늦어질수 있습니다.[배송예정일은 주문시점(주문순서)에 따른 유동성이 발생하므로 평균 배송일과는 차이가 발생할 수 있습니다.]
- 본 상품의 배송 가능일은 3일 입니다. 배송 가능일이란 본 상품을 주문 하신 고객님들께 상품 배송이 가능한 기간을 의미합니다. (단, 연휴 및 공휴일은 기간 계산시 제외하며 현금 주문일 경우 입금일 기준 입니다.)
교환 및 반품안내
- 상품 택(tag)제거 또는 개봉으로 상품 가치 훼손 시에는 상품수령후 7일 이내라도 교환 및 반품이 불가능합니다.
- 저단가 상품, 일부 특가 상품은 고객 변심에 의한 교환, 반품은 고객께서 배송비를 부담하셔야 합니다(제품의 하자,배송오류는 제외)
- 일부 상품은 신모델 출시, 부품가격 변동 등 제조사 사정으로 가격이 변동될 수 있습니다.
- 신발의 경우, 실외에서 착화하였거나 사용흔적이 있는 경우에는 교환/반품 기간내라도 교환 및 반품이 불가능 합니다.
- 수제화 중 개별 주문제작상품(굽높이,발볼,사이즈 변경)의 경우에는 제작완료, 인수 후에는 교환/반품기간내라도 교환 및 반품이 불가능 합니다.
- 수입,명품 제품의 경우, 제품 및 본 상품의 박스 훼손, 분실 등으로 인한 상품 가치 훼손 시 교환 및 반품이 불가능 하오니, 양해 바랍니다.
- 일부 특가 상품의 경우, 인수 후에는 제품 하자나 오배송의 경우를 제외한 고객님의 단순변심에 의한 교환, 반품이 불가능할 수 있사오니, 각 상품의 상품상세정보를 꼭 참조하십시오.
환불안내
AS안내
- 소비자분쟁해결 기준(공정거래위원회 고시)에 따라 피해를 보상받을 수 있습니다.
- A/S는 판매자에게 문의하시기 바랍니다.
이미지 확대보기
머신러닝 리스크 관리 with 파이썬
비밀번호 인증
글 작성시 설정한 비밀번호를 입력해 주세요.
확인장바구니 담기
상품이 장바구니에 담겼습니다.
바로 확인하시겠습니까?
찜 리스트 담기
상품이 찜 리스트에 담겼습니다.
바로 확인하시겠습니까?