LG Aimers에서 연세대학교 정승환 교수님 강의를 듣고 정리한 내용입니다.

틀린 부분이 있다면 댓글 부탁드립니다!

 


 

1. 품질의 정의

품질은 10개의 성질로 정의할 수 있다.

 

(1) 품질의 10가지 성질

- 고객 만족도 : 제품 출시를 앞두고 철저한 사용자 조사를 통해 기능 반영, 높은 만족도 달성

- 일관성 : 동일한 품질의 부품을 만들고, 모든 제품이 동일한 성능과 신뢰성을 유지

- 적합성 : 목적에 적합해야 함. 냉장고는 냉장 기능에 최적화 되어야 함

- 신뢰성 : 제품의 내구성을 높이기 위해 반복적으로 테스트와 개선 작업을 함

- 성능 : 소비자들의 요구를 반영하여 고성능 제품을 개발함

- 안정성 : 품질 검사를 통해 안전하고 믿을 수 있는 제품을 제공함

- 지속 가능성 : 기업, 사회, 환경적 지속 가능한 품질 관리에 앞장섬

- 효율성 : 사용자의 피드백을 반영하여 사용 편의성을 높이고, 처리 속도를 개선함

- 유지 보수성 : 유지 보수가 용이하도록 설계하며, 오랜 기간 동안 품질을 유지함

- 혁신 : 혁신적인 제품을 지속적으로 개발하고 경쟁력을 유지함

 

 

(2) 품질 관리 성공 사례 - SAMSUNG

- 첨단 기술 활용 : AI와 머신러닝을 활용한 자동 검사 시스템, IoT를 통한 예측, 유지보수 등을 도입하여 품질 문제를 사전에 예방함

- 전사적 품질 관리 문화 : 모든 직원이 품질 향상에 기여하도록 하는 문화를 구축하여, 전반적인 품질 관리 수준을 높임

- Six Sigma 도입 : 삼성은 1990년대부터 Six Sigma를 도입하여 공급망 관리를 혁신하고, 제품 결함을 줄여 운영 효율성을 극대화함

- 지속적인 개선 노력: 고객 불만 분석, 루트 원인 분석, 성과 지표 추적 등을 통해 지속적으로 품질을 개선해 옴

 


 

2. 품질 경영의 발전 과정

(1) 산업혁명과 초기 변화

- 산업 혁명은 대규모 분업을 초래하였고, 작업자들은 제품의 일부분만 담당

- 효율성은 증가했지만, 작업자들이 최종 제품을 확인하기 어려워짐에 따라 품질에 대한 책임이 작업조장에게 넘어감

- 초기 품질 검사는 비계획적이고 불완전하게 수행되어, 품질을 떨어뜨리는 결과를 낳음

 

 

(2) 2차 세계대전과 품질관리의 진전

- 2차 세계대전의 영향으로, 품질 관리의 중요성이 증대되었음. 전쟁 중 군수 물자 납품을 빠른 속도로 해야했기 때문

- 샘플링 검사법을 도입하며 품질 보증의 기초를 마련함

- 1950년대 중반에는 품질관리의 영역이 제조 과정에서 제품 설계, 원자재 입고 과정까지 확대됨

- 제품의 전체 라이프사이클을 고려한 품질관리가 시작되었음

 

 

(3) 전략적 접근과 현대적 의미

- 1970년대 후반에는 품질보증에서 전략적 품질경영으로 변화함

- 품질이 기업의 장기적인 성공에 필수적 요소로 인식되었음

- 품질은 기업 이익에 직접적인 영향을 미치며, 전사적 노력이 필요함.

 


 

3. 품질 표준

(1) ISO 9000 국제 품질 표준

https://ko.wikipedia.org/wiki/ISO_9000

- 국제적 인정 : ISO 9000 시리즈는 전 세계적으로 인정받는 품질 관리 표준임

- 품질관리 절차 : ISO 표준은 품질 관리 절차, 세부 문서, 작업 지침, 기록 유지 장려

- ISO 9001:2015 : 최신 버전은 다른 관리 시스템과의 호환성을 높이는 구조를 따름. risk-based thinking을 강조함

- 글로벌 인증 : 전 세계 201개 국가에서 160만 개 이상의 인증을 받은 글로벌 경영에 필수적인 표준임

 

 

(2) ISO 9000 관리 원칙

- 최고 경영진의 리더십

- 고객 만족

- 지속적인 개선 (PDCA, Plan Do Check Act)

- 전 조직 구성원의 참여

- 프로세스 접근법

- 데이터 기반 의사결정

- 시스템적 접근방식

- 상호 이익 공급 관계

 

 

(3) 말콤 볼드리지 국가 품질상

- 1988년 미국 정부에 의해 제정됨 : 당시 미국 경제상황은 제 2차 세계대전으로 인해 최악의 상태였음. 한편, 일본의 경제 및 상품경쟁력은 전성기를 맞고 있었는데, 이에 대해 미국은 일본의 경쟁력에 대해 다방면으로 검토

 

- Total Quality Management (TQM) 실행을 향상시키기 위해 설계됨

- 국가적 차원의 품질상이 필요함을 인식하고 성과 우수성을 달성한 조직을 인정함

 

 

(4) 볼드리지 지표 (Baldridge Criteria)

- 리더십 (120점) + 전략 (85점) + 고객 중심 (85점) + 측정, 분석, 지식 경영 (90점) + 고용 (85점) + 운영 (85점)

- 종합적으로 평가되어 조직의 품질 관리 성과를 판단함

 


 

4. 품질 비용

- 목표는 적은 비용으로 높은 품질 얻기!

 

(1) 품질 비용의 구성요소

- 평가 비용 (Appraisal Costs) : 품질 검사, 테스트 장비 비용 등

- 예방 비용 (Prevention Costs) : 직원 교육, 품질 개선 프로그램, 유지보수 비용 등

- 내부 실패 비용 (Internal Failure Costs) : 재작업 비용, 폐기 비용 등

- 외부 실패 비용 (External Failure Costs) : 고객 불만 처리 비용, 제품 반환 및 교체 비용 등

 

 

(2) 품질 비용의 관리 방법

- 평가 비용 : 효율적인 검사 및 테스트 프로세스 도입. 자동화된 검사 시스템 도입으로 오류 최소화

- 예방 비용 : 품질 교육 및 훈련 프로그램을 통해 직원의 품질 인식 향상. 품질 개선 프로젝트를 통해 결함 발생 가능성 감소

- 내부 실패 비용 : 결함 발생 시 신속한 문제 해결과 재작업으로 비용 최소화. 원인 분석을 통해 재발 방지 대책 마련

- 외부 실패 비용 : 고객 피드백 시스템을 통해 문제를 조기에 발견하고 해결. 제품 보증 및 애프터 서비스 강화로 고객 신뢰 유지

 


 

5. 품질의 리더

LG Aimers에서 KAIST 신진우 교수님 강의를 듣고 정리한 내용입니다.

틀린 부분이 있다면 댓글 부탁드립니다!

 


 

1. Problem Setting

(1) Dimensionality Reduction

 

2차원 데이터가 있을때, x1과 x2 중에서 더 중요하다고 할 수 있는 데이터는 x1이다.

x1의 분산이 더 크기 때문이다.

 

이때, 차원을 축소하여 x1으로만 1차원으로 나타내어도, 데이터의 표현이 크게 달라지지 않는다.

 

 

고차원 데이터의 문제점으로는 다음과 같다.

- 분석 및 시각화의 어려움

- 가끔 overcomplete 되거나, 많은 차원들이 서로 중복되는 경우가 있음

 

compact data representation을 위해서 사용되는 대표적인 방법이 PCA (Principal Component Analysis, 주성분분석)이다.

 

예를 들어, 집값을 예측한다고 했을때 학습에 사용하는 피처를 5차원 (크기, 방 개수, 욕실 개수, 주변 상권, 범죄율)에서 2차원 (크기, 위치)으로 줄여 학습하면 더 효율적일 수 있다는 것이다.

 

 

 

(2) PCA Algorithm

 

1. 데이터의 평균으로 데이터를 빼서 원점 근처로 이동시킨다.

 

2. 데이터의 표준편차로 데이터를 나누어서 standardization 시킨다. 

이때, original data의 피처 차원은 D이다.

 

3. data의 covariance matrix (공분산 행렬)을 구하고, 행렬에 대해 M개의 largest eigen value를 구한다.

M은 차원 축소하고자 하는 차원으로 D >>> M 이다.

 

4. 3에서 구한 eigen vector로 정의된 공간으로 모든 데이터를 projection 한다.

 

5. projection한 데이터의 standardization, centering을 undo한다.

 

 

2차원 데이터를 PCA를 통해 1차원으로 차원 축소하는 과정이다.

 

 

 

(3) Data Matrix and Data Covariance Matrix

- N : sample 개수

- D : original data feature 개수

데이터 X (평균이 0)에 대해서 data matrix를 구하면 위와 같다.

 

이 데이터에 대해서 covariance matrix를 구해보면,

 

 

 

(4) Code : Low Dimensional Representation

데이터를 저차원 표현한 것을 code라고 부른다.

 

PCA 과정에서의 projection, subtraction, division은 모두 linear한 과정들이다.

이를 하나의 행렬 B로 linear transformation 했다고 한다면, 다음과 같이 나타낼 수 있다.

 

- x : 원본 데이터 (D차원)

- z : 변형 데이터 (M차원)

- B : 찾아야 할 행렬 (D x M차원), orthogonal matrix (B의 컬럼벡터들이 서로 수직이고 크기가 1)

 

결국, 행렬 B를 찾는 것이 PCA의 과정이다!

 

 

이를 Encoder와 Decoder의 관점에서 보면,

 

original data에 B를 곱해 코드 z를 만들고,

z에 B의 전치행렬을 곱하여 복원한다.

 

이때, B는 orthogonal matrix이므로 B의 전치행렬은 역행렬이다.

B의 전치행렬은 인코더, B는 디코더로 볼 수 있다.

 

예를 들어, MNIST 데이터셋에서 총 60,000개의 데이터가 있으며 (N = 60,000), 28 x 28 = 784 픽셀이 있을 때 (D = 784)

D를 2 또는 3차원으로 축소하여 데이터를 나타내는 것이 PCA, 즉 선형적 인코딩 과정인 것이다.

 

 

 

 

 

 

2. Maximum Variance perspective

(1) Idea

데이터 안의 '정보'란, 공간을 채우고 있는 것과 같다.

데이터가 얼마나 퍼저있는가 즉, 분산이 중요한 정보인 것이다.

 

 

X와 Y 중에서 더 중요한 피처는 X라고 말할 수 있는데, 그 이유는 분산이 더 크기 때문이다.

 

그러나, X와 Y 둘 중에서 하나만 골라서 사용하지 말고, 새로운 축을 구성하면 두 정보를 다 활용할 수 있다.

 

X, Y가 아닌 방향을 골라 그 방향으로 데이터를 projection하면서,

해당 방향으로의 분산이 최대가 될 수 있도록 한다면 데이터 활용이 더 커질 것이다.

 

 

 

(2) Matrix again

공분산 행렬의 고유벡터가 왜 데이터의 분산을 최대로 하는 방향인지에 대해 수학적으로 증명해본다.

 

- 목표 : 분산을 최대로 하는 orthogonal matrix B 찾기

- 결과 : 데이터의 공분산 행렬 S에 대한 M개의 고유값에 상응하는 고유벡터들은 행렬 B의 컬럼 벡터이다.

 

- 증명 방법 : 수학적 귀납법 (Induction)

 

1. n = 1

1차원 데이터에 대해 분산은 $ \sigma ^2$이다.

공분산 행렬 S는 $\sigma ^2$ 자체이며, 이 값이 고유값이다.

고유벡터는 1차원에서 단위 벡터 [1]이고, 행렬 B도 [1]이다.

 

1차원 데이터의 경우, 공분산 행렬의 고유벡터는 단순히 데이터의 방향을 나타내는 단위 벡터이다.

 

강의에서는 다음과 같은 방식으로 증명하였다.

 

 

코드 z의 분산을 구하는 식은 첫 번째 식과 같다. 그리고 z는 b1과 데이터 x의 선형 결합으로 나타낼 수 있다.

분산을 구해보면 두 번째 식처럼 나오고, 그 식을 최대로 하는 b1을 convex optimization으로 구한다.

 

convex optimization의 objective function과 constraint (정규화를 해서 데이터의 분산을 최대화하는데 영향을 미치지 않도록 한다.)는 다음과 같다.

 

라그랑주 함수는 다음과 같고, 이를 KKT condition으로 푼다.

 

라그랑주 함수에 대해 b1에 대한 편미분을 수행하고, 이를 0으로 설정하여 구해보면

$S{b_1} = {\lambda_1}{b_1}$

 

따라서, 분산을 최대로 하기 위해서는 가장 큰 고유값의 고유벡터를 주성분으로 삼아야 한다.

 

 

2. n = k-1일 때 가정

n = k-1 차원에서 행렬 B의 컬럼 벡터들이 공분산 행렬 S의 고유벡터들이며,

행렬 B가 데이터의 분산을 최대로 하는 orthogonal matrix임을 가정하자.

 

 

3. n= k

동일하게 optimization problem으로 표현할 수 있다.

 

라그랑주 함수는 다음과 같다.

 

라그랑지안의 첫 번째 필요 조건은 gradient = 0이 되는 것이므로,

 

이제 임의의 $j \in \left\{ 1, ... ,k\right\}$에 대해 다음을 만족해야 한다.

 

이때 $b_j$는 S의 고유벡터이므로 $S{b_j} = {\lambda_j}b_j$ 이고 ${b_j^T}{b_i}=0$을 만족한다. 따라서,

 

이로부터 ${b_j^T}{b_{k+1}}=0$임을 알 수 있다.

 

식이 단순해지고 다음과 같이 표현된다.

따라서, $b_{k+1}$은 S의 고유벡터이며, 고유값은 $\lambda$이다.

 

 

4. 고유값의 순서

우리는 k번째 고유벡터까지 알고 있다고 했을 때, $b_{k+1}$은 k+1번째로 큰 고유값에 대응하는 고유벡터여야 한다.

그렇지 않으면, 고유값이 더 큰 고유벡터와의 직교 조건이 충족되지 않기 때문이다.

 

결론적으로, $b_{k+1}$도 S의 고유벡터이며, $b_1, b_2, ..., b_{k+1}$은 모두 직교한다.

 

 

 

 

3. PCA in High Dimensions

실제 데이터의 사례를 보면, 데이터의 개수가 데이터의 차원보다 더 적은 경우가 있다. (N << D)

 

예를 들면, 100 x 100 픽셀의 이미지에서의 D = 10,000 인데, 데이터의 개수 N = 100 인 경우가 있다.

 

 

이런 경우의 PCA는 다음과 같이 구할 수 있다.

 

${X^T}X \in R^{D \times D}$를 구하는 것보다

${X}{X^T} \in R^{N \times N}$을 구하는 것이 계산량이 더 적기 때문이다.

 

 


 

 

1. 차원 축소의 방법으로 PCA가 대표적이다.

2. 데이터의 공분산 행렬을 고유값 분해했을 때, 가장 큰 순서대로의 고유값에 해당하는 고유벡터가 주성분이 된다.

LG Aimers에서 KAIST 신진우 교수님 강의를 듣고 정리한 내용입니다.

틀린 부분이 있다면 댓글 부탁드립니다!

 


 

1. Determinant and Trace

(1) Determinant

 

2 x 2 행렬 A에 대해서 역행렬이 존재하는지 알기 위해서 determinant를 구해본다.

determinant가 0이 아니라면 invertible하다.

 

 

2 x 2 행렬에서는 공식처럼 쉽게 역행렬을 구할 수 있다.

더 큰 행렬에 대해서는 Gaussian elimination 방법으로 역행렬을 구한다.

 

 

 

- determinant를 구하는 방법 중 하나로 Laplace expansion (라플라스 전개)가 있다.

 

행 확장이나 열 확장이나 결과는 동일하므로, 더 편한 방법을 사용하면 된다.

 

 

 

(2) determinant theorm

 

rk(A)는 A에 대한 rank (Column space의 차원 수)이다.

 

 

- determinant에 대한 성질은 다음과 같다.

 

determinant는 곱셈에 대해서 분리 가능하다는 점이 특징이다.

또한, (5)에서 삼각행렬에 대한 determinant 공식인데, 이는 당연하게도 대각행렬에서도 성립한다.

 

 

 

(3) Trace (대각합)

행렬의 대각 원소에 대한 합을 의미한다.

 

determinant가 곱셈에 대한 분해가 가능하다는 특징이 있었다면, trace는 덧셈에 대한 분해가 가능하다는 특징이 있다.

 

 

determinant와 trace는 고유값 분해에서 각각 고유값의 곱과 고유값의 합과 같다.

 

 

 

 

2. Eigenvalues and Eigenvectors

(1) 고유값과 고유 벡터

 

특성 방정식에 대한 determinant가 0이어야 한다.

 

그 이유는 적어둔 것과 같이 x가 영벡터가 아니라는 가정에서 특성 방정식이 역행렬을 가지지 않아야지만 해를 가질 수 있기 때문이다.

 

 

예를 들어,

 

이 결과를 통해 eigenvector는 하나만 존재하는 것이 아님을 알 수 있다.

 

 

 

(2) 특징

행렬 A가 n개의 서로 다른 고유값을 가진다면, 고유 벡터들은 linearly independent하다.

 

1. determinant에서 언급한 바와 같이, determinant와 trace는 고유값 분해에서 각각 고유값의 곱과 고유값의 합과 같다.

 

 

 

 

3. Cholesky Decomposition

주어진 행렬이 어떤 작은 행렬 두 개의 곱으로 나타낼 때 사용한다.

 

조건은 Positive-semi definite 행렬이어야 한다는 점이다. 그 기저에는 대칭행렬이라는 조건이 있다.

 

행렬 A에 대해서 숄레스키 분해를 하면 다음과 같고, L을 a 값에 관하여 구할 수 있다.

 

 

 

 

 

4. Eigen-decomposition and Diagonalization

(1) Diagonal Matrix and Diagonalization

대각행렬은 대각선에만 0이 아닌 수가 있고 나머지에는 0을 가지는 행렬이다.

 

이러한 대각행렬은 determinant가 대각선 원소들의 곱과 같고, 행렬의 k승수는 대각원소의 k 승수와 같다.

또한 역행렬은 원소의 역수와 같다.

 

어떤 행렬이 diagonalizable 하다는 것은 행렬이 n개의 선형 독립인 고유벡터를 가진다는 것과 같은 의미이다.

 

Orthogonally diagonalizable 하다는 뜻은 행렬과 전치행렬의 곱이 항등행렬임을 의미하기 때문에, 위와 같이 나타낼 수 있다.

행렬의 고유벡터들로 이루어진 행렬이 직교행렬이며, 모든 대칭행렬은 orthogonally diagonalizable하다.

 

 

 

(2) Power of Diagonalization

 

 

 

 

5. Singular Vector Decomposition

고유값 분해는 정방행렬에서만 가능했다면, 특이값 분해는 고유값 분해가 확장된 방법이다.

 

1) 대칭행렬은 아니지만 정방행렬인 경우

2) 대칭행렬도, 정방행렬도 아닌 경우

 

이때, 행렬의 전치행렬과 행렬의 곱, 행렬과 행렬의 전치행렬의 곱이 정방행렬임을 이용한다.

 

 

특이값 분해를 정리하면 다음과 같다.

 

 


 

 

1. 행렬을 summarize 하는 방법 : determinants, eigenvalues

 

2. 행렬을 분해하는 방법 : Cholesky decomposition, diagonalization, Singular value decomposition

LG Aimers에서 KAIST 차미영 교수님 강의를 듣고 정리한 내용입니다.

틀린 부분이 있다면 댓글 부탁드립니다!

 


 

1. 인공지능과 Creativity

(1) AI도 예술을 창조하는 시대가 도래

- 생성형 AI를 기반으로 그림을 만들고, 작곡을 하기도 한다.

- 실제로 Q&A 시스템에서 인공지능이 인간의 성능을 초월하기도 했다.

[Rajpurkar-Jia-Liang, ACL 2018]

- 2018년 기준이므로 현재는 더 뛰어난 모델이 개발되었을 것이다..

 

 

- 2024년 부천국제판타스틱 영화제에서는 인공지능 영화 부문을 신설하기도 했다.

 

 

 

(2) 저작권 이슈

https://obvious-art.com/portfolio/edmond-de-belamy/

 

- $432,500의 가격에 팔린 인공지능이 만들어낸 작품이다.

- 이때, 학습 데이터, 프로그래머, 기획자 사이에서 저작권 이슈는 빼놓을 수 없다.

- AI 예술 작품은 학습 데이터 기반이기 때문에 '창작성 (originality)'가 있는지 의문이 들기도 한다.

 

- 학습에 사용된 데이터를 제공한 사람에게도 혜택이 돌아가기가 어려운 것이 사실이다.

- 창작자인 AI는 법적 권리르 제공할 수 있는 법적 제도가 부재한 상황이며, 현존하는 예술가들의 스타일을 따라한 경우 상업적 피해를 발생시킨다.

- 또한, 창작된 작품이 인간의 윤리적 규범을 따르지 않을 수도 있다.

 

 

 

(3) 인공지능 법인

- 법인은 법적 권리와 의무에 대한 책임을 소지한다.

- 인공지능은 아직 법인에 속하지 않는다.

 

- '인공지능을 법인으로 인정할 것인가?'에 대한 의논이 벌어지기도 했다.

 

"장기적으로 로봇에 대한 구체적인 법적 지위를 창출하여, 적어도 가장 정교한 자율주행 로봇이 야기할 수 있는 손해를 충분히 배상할 책임이 있는 전자인의 지위를 갖게 하고, 로봇이 자율적인 의사결정을 하거나 그 밖에 독립적으로 제3자와 상호작용하는 경우에 전자인격을 적용할 가능성이 있는 경우"

 

 

- 법인격의 장점으로는 (1) 책임 문제가 쉽게 해결 (2) 혁신, 사회 발전 가능 (3) 법제도가 일관성 있게 유지 (4) 자연인이 아닌 것에 대한 법인이 이미 존재함

- 법인격의 단점으로는 (1) 법적 처벌의 도피로 악용될 가능성 (Liability Shields) (2) 도구주의에 반함 (3) 인류에 대한 수치 (4) 처벌의 어려움

 

 

 

(4) Moral Machine

- 아시모프의 로봇 3원칙이 있다.

- 첫째, 로봇은 인간을 다치게 해선 안 되며, 인간이 해를 입는 걸 방관해서도 안 된다.

- 둘째, 법칙 1에 위배되지 않는 한, 로봇은 인간의 명령에 복종한다.

- 셋째, 법칙 1과 2에 위배되지 않는 한, 로봇은 스스로를 보호해야 한다.

 

 

- 그렇다면 인공지능으로 인한 부작용에 책임 소재는 누구에게 있는지가 문제이다.

- 자율주행 자동차에서 사고가 발생했다면, 소유자, 자동차 회사, AI 개발자, 운전자, 자율주행차, 보행자 중에서 누구에게 법적 책임이 있는 것일까?

https://en.wikipedia.org/wiki/Moral_Machine

 

 

- 알고리즘이 결정을 내릴 때, Moral Machine 설문을 통해 선호도를 측정한다고 한다.

 

http://moralmachine.mit.edu/

 

- 사고의 가능성은 항상 존재하며, 누구를 보호할 것인가에 대한 인공지능의 결정은 여전히 연구 주제이다.

 

 

 

 

2. 세계적인 데이터 과학자가 되는 방법

- 이종 데이터의 결합을 통해 혁신적인 결과를 낸다.

- 예를 들어, 서울시 야간 버스 노선을 제작할 때 통신사와의 협업을 통해 수요를 파악했다고 한다.

 

- Digital Transformation을 통해, 이종 빅데이터의 결합과 새로운 인공지능 기반 계산 과학 방법의 적용이 이뤄진다.

- 이를 통해 데이터 사이언스 기반 난제를 해결하고, 정책을 결정하며 신규 산업을 창출할 수 있을 것으로 기대된다.

 

- 페이스북 스타일로 목표를 설정하는데, 이는 목표가 너무 낮아서 빨리 성취하도록 하는 것을 방지한다. 계속된 목표 수정으로 계속해서 성장해 나가도록 한다.

 

 


 

1. 인간의 창조적 활동 영역으로 들어온 인공지능은 인간의 개입 없이 독자적 창작과 혁신 활동이 가능한 수준으로 발전할 것이라는 전망이 있다.

 

2. AI 시대의 지식 재산, 법인격, 처벌, 윤리 문제 부각은 다양한 계층 시민의 수요와 요구를 논의를 통해 반영해야 한다.

 

3. AI에 대한 경계와 규제의 선택은 인류에 대한 재정의라고 할 수 있다.

LG Aimers에서 KAIST 차미영 교수님 강의를 듣고 정리한 내용입니다.

틀린 부분이 있다면 댓글 부탁드립니다!

 


 

1. 데이터의 시대

(1) 데이터를 잘 해석하고 있는가?

NEJM 2012, “Chocolate Consumption, Cognitive Function, and Nobel Laureates”

 

- '초콜릿을 많이 먹으면 노벨상을 탄다'는 말은 맞는 말일까? 좀 의아하게 들린다. 따라서 데이터를 잘 해석해야 한다.

 

- '상관관계' ≠ '인과관계'

 

 

 

(2) 데이터 전처리와 분석 방법은 적절한가?

 

- 실제로 메타에서는 그래프에서 Error bar가 존재하지 않는다면 아예 데이터를 믿지 않는다고 한다.

- 따라서, (1) Error bar 추가 (2) 적절한 통계 테스트 찾기 (3) Outlier 제거 (4) 데이터 표준화 (5) EDA를 통해 데이터를 충분히 들여다보고 알아나가는 시간이 필요하다.

 

 

 

(3) 학습에 쓰는 데이터가 충분한가?

 

- 일반적으로 인공지능 알고리즘에서 필요한 데이터 양은 보통 million scale (100만 데이터)라고 한다.

 

- 데이터 학습의 결과가 적절한 수준인지에 대한 인식이 있어야 한다. 그림처럼 모델이 너무 단순하거나, 너무 복잡하여 Under-fitting 되거나 Over-fitting 되지 않도록 해야 한다.

 

- 학습 데이터 ≠ 테스트 데이터

 

 

 

2. Black Box Algorithm

(1) 설명력이 중요한 AI

- 인공지능에서는 '성능' 뿐만 아니라, '설명력'도 중요한 요소이다.

- 실제로 면세 범위 초과 물품, 위장 반입, 원산지 조작 등의 세관에서 벌어지는 불법 행위를 적발하는 AI 기술을 개발한 것에 대해 왜 그렇게 판단을 하였는지에 대한 '설명력'이 전문가들을 설득하는 데 중요한 요소로 작용했다고 한다.

 

 

- AI 기반 학습 알고리즘은 결과에 대한 설명이 불가능한 'Black Box Algorithm'이라는 특징을 가지고 있다.

- 앞선 사례처럼 High risk 결정에서는 설명력도 정확도 (성능) 만큼이나 중요하다.

 

- post-hoc explainability (사후 설명력)

예시) Saliency Map (어디에 집중해서 보는가?), SHAP (SHapley Additive exPlanations, 게임 이론을 바탕으로 각 player의 기여분 계산)

 

- 알고리즘의 내면을 가시화하여 보여주는 기술이 개발되고 있다.

 

 

 

(2) 학습 결과가 바뀔 수 있는 위험성

https://hackaday.com/2018/04/15/one-pixel-attack-fools-neural-networks/

 

- One Pixel attack의 예시이다.

- 픽셀 하나만 바뀌었지만 알고리즘 학습 결과가 달라지는, 노이즈에 굉장히 민감한 모델이다.

- 충분히 신뢰성 있는 모델을 개발하도록 해야 한다.

 

 

 

3. Handling the Web data

(1) 의견의 대표성

'Spiral of Silence (침묵의 나선)'

 

https://www.communicationtheory.org/the-spiral-of-silence-theory/

 

- 이는 각 개인들이 '고립'에 대한 공포가 있으며, 고립에 대한 공포는 자신의 의견을 말하는 것보다 침묵을 유지하는 방향으로 이끈다는 것이다.

- 특정 의견이 다수의 사람들에게 지배적인 의견으로 인정되고 있다면, 반대되는 의견을 가지고 있는 소수의 사람들은 침묵하려는 경향이 크다고 한다.

 

- 이러한 현상은 SNS를 통한 빠른 정보 전파, bot의 참여, 극단화 현상 주의를 야기한다. 즉, 정보의 편향을 일으킨다.

 

 

 

(2) 인포데믹 현상

- 오정보의 빠른 확산으로 인한 인포데믹 (infodemic) 현상이 발생한다.

- 사실 정보와 더불어 오정보의 양이 늘어, 구분이 어려워지는 정보 과부하 현상이다.

[Ma et al., IJCAI 2016, Kwon et al., PLoSOne 2017, Bail et al., PNAS 2018, Vosoughiet al., Science 2018, Kimetal.,WSDM2018]

- Facts는 연결되면서 퍼지지만, Rumors는 산발적으로 퍼져나가며 인포데믹 현상을 발생시킨다.

 

 

 

(3) Digital Services Act

- 유럽 연합 중심으로 빅테크 기업 대상 플랫폼 유해 컨텐츠 단속 의무를 강화하고 있으며, 이는 전세계로 확산되고 있다.

- 네티즌의 성별, 인종, 종교 등에 기반한 알고리즘으로 개인화 추천 광고를 노출하지 않도록 하고 있다.

- DSA 위반 시 연매출 대비 상당한 과징금도 부여하고 있다.

 

 

 

3. AI and Ethical Decisions

(1) COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) 

- North pointe, Inc가 개발한 소프트웨어로, 피고의 미래 범죄 위험을 점수로 예측한다.

- 미국 법원의 형사 재판에서 판사들의 의사결정을 지원하기 위해 사용하고 있으며, 현재 캘리포니아주, 뉴욕주, 위스콘신주,  플로리다, 워싱턴 등 12개 기타 관할권 법원에서 사용중이다.

 

 

- 한편, COMPAS가 예측한 미래 범죄 위험도 알고리즘이 인종 차별을 조장하는 사례가 있었다.

 

- 두 사람 모두 사소한 절도로 인해 체포되었다.

- 왼쪽은 무장 강도 등의 전과가 있었고, 오른쪽은 어린 시절 저지른 경범죄의 전과가 있었다. 하지만, 흑인 여성에 대해 COMPAS는 더 높은 범죄 위험도를 부여했다.

- 2년 후, 왼쪽은 절도 혐의로 징역을 살게 되었고, 오른쪽은 이후 범죄를 저지르지 않았다고 한다.

 

- 알고리즘의 '편향성' 때문에 발생한 사례이다.

 

 

 

(2) Microsoft Tay

- 백인 우월주의자, 여성, 무슬림 혐오자들이 차별 발언하도록 학습되어 공개 16시간만에 서비스를 중단했다.

- 이후 MS는 Zo라는 13세 여성 캐릭터 챗봇을 새로 공개했는데, 소수자에 대한 대화 자체를 피하도록 개발되어 컨텐츠 검열이라는 지적을 받기도 했다.

 

 


 

1. 데이터의 확보, 전처리, 분석, 해석의 전 과정이 중요하다. 데이터가 알고리즘의 품질을 결정한다.

 

2. 알고리즘의 설명력, 편향, 신뢰의 문제에 주의한다.

+ Recent posts