ep.06 "일상 속 숨겨진 머신러닝의 알고리즘 이야기"
이번에는 머신러닝이 구체적으로 어떻게 작동하는지 알아볼 거예요. 머신러닝은 인공지능이 스스로 배우는 방법이라고 했었죠? 머신러닝 안에는 여러 가지 알고리즘, 즉 컴퓨터가 배우는 방법들이 있어요. 그중에서 가장 기본이 되는 알고리즘들을 알아봅시다.
선형 회귀(Linear Regression)는 쉽게 말해 '하나의 요소가 변하면 다른 요소가 어떻게 바뀌는지'를 알아내는 방법이에요. 만약여러분이 학교에서 시험을 본다고 해 봅시다. 그런데 시험을 보기 전 공부한 시간과 실제 시험 점수 사이에 관련성은 얼마나 될까요?
공부를 많이 하면 점수가 높아질 가능성이 크죠? 반대로공부를 적게 하면 점수가 낮아질 가능성이 클 거예요.이때, 카지노 게임 사이트가 '공부 시간과 시험 점수의 관계'를 공식으로 정리하면, 다음 시험에서 누군가가 몇 시간 공부했는지 알면 시험 점수를 얼추 예측할 수 있게 돼요.
만약 카지노 게임 사이트가 '시험점수 = (공부한 시간 × 5점) + 50점'과 같이 공식을 짰다고 생각해 봐요. 이렇게 하나의 요소(공부 시간)가 변할 때 다른 요소(시험 점수)가 어떻게 바뀌는지 예측하는 것이 선형 회귀입니다.
로지스틱 회귀(Logistic Regression)는 '어떤 일이 일어날 확률'을 계산하는 알고리즘이에요. 이것은 특정 결과가 나타날 확률을 0과 1 사이의 숫자로 표현해서 결과를 예측해요.예를 들어, 이카지노 게임 사이트을 받을 때 '스팸 카지노 게임 사이트인지, 아닌지' 판단해 주는 것도로지스틱 회귀의 사용 예시예요.
카지노 게임 사이트을 받았는데 '무료 선물! 클릭하세요!'와 같은 특정단어나 문장이 있으면,AI는 "이 카지노 게임 사이트이 스팸일 확률은? 95%!"라고 계산하고 자동으로 스팸 카지노 게임 사이트함에 넣어요. 이처럼 기존 데이터를 바탕으로 이카지노 게임 사이트 내용을 보면서 '스팸 카지노 게임 사이트일 확률'을 계산해서 판단해요.만약확률이 50% 이상이면 '스팸', 50%보다 낮으면 '정상 카지노 게임 사이트'과 같이 특정 기준에 따라판단해요.
K-NN (K-Nearest Neighbor) : 친구 따라 강남 간다!
K-NN 알고리즘은 가장 가까운 이웃을 보고, 같은 그룹으로 분류해요. 즉, 어떤 새로운 데이터가 있을 때, 주변 데이터를 보고 가장 비슷한 쪽으로 묶어주는 거죠.예를 들어, 새로 출시된 영화가 액션인지 코미디인지 모를 때, 카지노 게임 사이트는 주변에 비슷한 영화의 숫자를 보고 알아서 분류해요.
K-Means : 알아서 비슷한 친구들끼리 묶어줘요
K-Means는 비슷한 성격을 가진 데이터를 스스로 그룹으로 묶어주는 알고리즘이에요. 우리가 특별히 정답을 알려주지 않아도 스스로 그룹을 만들어내요.예를 들어, 음악 앱에서 내가 좋아하는 노래들을 알아서 비슷한 스타일끼리 모아서 '추천 플레이리스트'를 자동으로 만들어주는 것도 K-Means의 대표적인 예랍니다.
결정 트리(Decision Tree)는 '질문을 하나씩 하면서 정답에 다가가는 방식'이에요. 마치 '스무고개 게임'을 하는 것과 비슷해요.예를 들어, 우리가 평소 아침에 일어날지 말지 결정한다고 해볼게요.
오늘이 주말인가요?
Yes→ 더 잡니다.
No → 그럼 7시가 넘었나요?Yes→ 일어납니다.No → 더 잡니다.
이렇게 반복적인 질문과 대답을 통해 나무의 가지처럼 나뉘며 정답을 찾는 방법이에요. 실제 생활에서스마트폰이 '사용자가 걷고 있는지, 자동차를 타고 있는지'를 알아낼 때도 이런 방식으로 판단해요.
지금까지 살펴본 내용을 다시 간단하게 정리해 보면,
선형 회귀는공부시간처럼 한 요소가 바뀌면 점수 같은 다른 요소가 어떻게 변할지 예측해요.
로지스틱 회귀는스팸카지노 게임 사이트처럼 무언가가 일어날 확률을 구해서 분류해요.
K-NN과 K-Means는비슷한 것끼리 가까이 묶거나 알아서 그룹을 만들어요.
결정 트리는하나씩 질문을 통해 단계적으로 답을 찾아요.
[출처]
- Russell, S., & Norvig, P. (2021). Artificial intelligence: A modern approach (4th ed.). Pearson Education.
- Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT Press.
- James, G., Witten, D., Hastie, T., & Tibshirani, R. (2021). An introduction to statistical learning: with applications in R (2nd ed.). Springer.
- Breiman, L. (2001). Random forests. Machine learning, 45(1), 5–32.