AI Learning
Logistic Regression(로지스틱 회귀분석)
- Logit function 을 사용한 회귀분석
- 기존의 회귀식
- 좌변과 우변에서 계산된 값이 모두 연속형인 수를 가정
- 좌변과 우변에서 계산된 값이 연속형
- 로지스틱회귀
- 우변은 연속형인 값이 나오지만 좌변은 이산형인 값들만 나옴
- 우변의 계산값이 좌변의 계산값과 안맞아 등호가 성립할 수 없게되는 문제가 생김
- 따라서 좌변의 y값을 어떠한 처리를 통해 범위를 맞춰주는 작업을 해줘야 하는데 이것이 Logit(Log + Odds)변환이다.
- Logit 변환이란
- 오즈에 로그를 씌운것
- 일반회귀식으로 0 또는 1(이산형)을 바로 예측할 수는 ㅇ벗으므로, y값(1,0)의 확률을 이용해 오즈비로 변환하여, 로그를 취한다면 불가능했던 예측이 가능
- Odds란
- 어떠한 일이 일어날 확률(1이될 확률)을 일어나지 않을 확률(1-p)로 나눈것을 말함
- 각 독립변수에 대해 실패/성곡에 대한 확률을 구한 뒤, 각각 구함
- 로지스틱 회귀 분석은 데이터마이닝, 기계학습등 다양한 분야에서 분류 및 예측을 위한 모델로서 폭 넓게 사용되고 있다.
Attention Is All You Need
- “Attention Is All You Need”
- 구글 브레인, 구글 리서치 팀에서 발표한 신경망을 이용한 기계번역(NMT: Neural Machine Translation)에 대한 논문이다.
-
Recurrent, Convolution을 사용하지 않고 Attention”만”을 사용하는 간단한 신경망 구조를 통해 기계 번역 분야(특히, 영어에서 독일어로 번역)에서 state-of-the-art- 성능을 얻음과 동시에 computation cost를 줄일 수 있었다고 한다.
- 이 논문에서 정의하는 attention이란 query와 key-value pair들을 받아서 output에 맵핑해 주는 함수이다.
- 위 공식이 attention을 수식으로 나타낸 것인데, Q에 맞게 K를 이용해 V에 가중치를 주는 기법이다.
- previous layer의 output(Q)에 맞게 previous layer의 output(K)를 이용해 current layer의 output(V)에 가중치를 구하는 것이다.
- attention mechanism이 중요한 이유
- 각각 layer마다 필요로 하는 총 computin cost가 줄어든다
- 병렬화가 가능한 computation이 늘어난다
- 신경망 내에서 long-range dependencies를 잇는 path length가 줄어든다
- 해석가능한 모델을 만들기 위함
- 평가
- Recurrent Cell과 Convolution을 벗어나려는 좋은 시도,
- 어렵다….무슨말인지 1도 모르겠다……
-
AI는 어렵다…
- 참고사이트 : hist0613님 블로그