
기계학습이란 무엇인가?
기계는 방대한 양의 데이터를 분석하여 학습한다. 예를 들어, 고양이나 사람의 얼굴을 인식하기 위해 프로그래밍 할 필요가 없으며, 이미지를 사용하여 특정 목표를 인수하고 식별하도록 훈련 할 수 있습니다.
기계학습과 인공지능의 관계
기계학습은 데이터에 있는 패턴을 찾아내고 이러한 패턴을 사용하여 예측을 하는 연구와 알고리즘의 범주이다. 기계학습은 인공지능의 한 부분이며, 지식 발견과 데이터 채굴과 교차한다.

기계학습이 작동하는 방식
1 데이터를 선택하세요: 여러분의 데이터를 세 그룹으로 나누세요: 훈련 데이터, 검증 데이터, 테스트 데이터 2 모델 데이터: 훈련 데이터를 사용하여 관련 특성을 사용하는 모델을 구축 3 검증 모델: 검증 데이터를 사용하여 모델에 액세스합니다. 4 테스트 모델: 테스트 데이터를 사용하여 검증된 모델의 성능을 검사합니다. 5 모델 사용: 완전히 훈련된 모델을 사용하여 새로운 데이터에 대한 예측 6 조정 모델: 더 많은 데이터, 다른 특성 또는 조정된 매개 변수를 사용하여 알고리즘의 성능을 향상시킵니다.

기계학습의 위치
1 전통적인 프로그래밍: 소프트웨어 엔지니어는 문제를 해결하기 위해 프로그램을 작성한다. 먼저 약간의 데이터가 존재→ 문제를 해결하기 위해, 소프트웨어 엔지니어는 기계가 어떻게 해야 하는지를 알려주는 프로세스를 작성한다→ 컴퓨터는 이 프로세스를 따라 실행하고, 그 다음 결과를 얻는다. 2 통계학: 분석가들이 변수들 사이의 관계를 비교한다 3 기계 학습: 데이터 과학자는 훈련 데이터 세트를 사용하여 컴퓨터에 무엇을 해야하는지 가르치고, 시스템이 그 작업을 수행합니다. 먼저 빅 데이터가 존재합니다.→ 기계는 훈련 데이터 세트를 사용하여 분류를 수행하고, 목표 분류를 달성하기 위해 특정 알고리즘을 조정합니다.→ 컴퓨터는 데이터의 관계, 경향 및 패턴을 식별하는 것을 배울 수 있습니다. 4 지능형 응용 프로그램: 지능형 응용 프로그램 인공지능을 사용하여 얻은 결과, 그림은 정밀 농업의 응용 사례 예시이며, 응용 프로그램은 무인 항공기에서 수집 한 데이터를 기반으로합니다.

기계학습의 실제적 응용
머신러닝에는 다양한 응용이 있는데, 몇 가지 예가 있습니다. 어떻게 활용할 것인가?
빠른 3D 지도 및 모델링: 철도 다리를 건설하기 위해, PwC의 데이터 과학자와 분야 전문가들은 기계 학습을 무인 항공기에서 수집된 데이터에 적용합니다. 이 조합은 작업의 성공에 대한 정확한 모니터링과 빠른 피드백을 가능하게합니다.
위험을 낮추기 위한 강화된 분석: 내부 거래를 탐지하기 위해 PwC는 기계 학습과 다른 분석 기술을 결합하여 보다 포괄적인 사용자 프로필을 개발하고 복잡한 의심스러운 행동에 대한 더 깊은 이해를 제공합니다.
최고의 성과를 예측하는 목표: PwC는 머신 러닝과 다른 분석 방법을 사용하여 멜버른 컵 경기장에서 다른 경주마의 잠재력을 평가한다.

수십 년 동안 인공지능 연구자들의 각 “지파”들은 서로 지배권을 놓고 싸워왔다. 이제 이 부족들이 연합할 때가 되었는가? 그들은 그렇게 해야 할지도 모른다. 왜냐하면 협력과 알고리즘의 융합만이 진정한 범용 인공지능 (AGI) 을 실현할 수 있는 유일한 방법이기 때문이다.
5대 유행
1 기호주의: 지식의 표현과 논리적 추론을 하기 위해 기호, 규칙, 논리를 사용한다. 가장 좋아하는 알고리즘은 규칙과 의사결정 나무이다. 2 베이스파: 발생의 가능성을 얻어 확률적 추론을 한다. 가장 선호하는 알고리즘은: 순진한 베이스 또는 마르코프 3 연계주의: 확률 매트릭스와 가중된 뉴런을 사용하여 동적으로 패턴을 식별하고 회수하는 방법, 가장 선호하는 알고리즘은: 신경망 4 진화론: 변화를 만들어내고, 특정 목적을 위해 그 중에서 가장 좋은 것을 얻는, 가장 좋아하는 알고리즘은: 유전적 알고리즘 5Analogizer: 제약 조건에 따라 함수를 최적화하기 위해 ((가능한 한 높은 곳으로 이동하지만 동시에 길을 떠나지 마십시오)) 가장 좋아하는 알고리즘은: 벡터 기계를 지원

진화의 단계
1980년대
대표적인 장르: 상징주의 아키텍처: 서버 또는 대형 컴퓨터 주요 이론: 지식 엔지니어링 기본적인 의사결정 논리: 의사결정 지원 시스템, 제한된 실용성
1990년대에서 2000년
주요 장르: 베이스 아키텍처: 작은 서버 클러스터 주류 이론: 확률론 분류: 확장 가능한 비교 또는 대조, 많은 작업에 충분하다
2010년대 초중반
유행하는 음악: 연대주의 아키텍처: 대형 서버 팜 주요 이론: 신경과학과 확률 인식: 더 정확한 이미지 및 음성 인식, 번역, 감정 분석 등

이 세트들은 협력하고 각자의 방법을 융합할 수 있을 것으로 기대됩니다.
2010년대 후반
유행하는 장르: 연계주의 + 상징주의 구조: 많은 구름 주요 이론: 기억 신경망, 대량 통합, 지식 기반 추론 간단한 질문과 답변: 좁고 특정 분야의 지식 공유
2020년대+
유행하는 장르: 연합주의 + 상징주의 + 베이스 + … 아키텍처: 클라우드 컴퓨팅과 안개 컴퓨팅 지배적인 이론: 인식할 때 네트워크가 있고, 추론하고 일할 때 규칙이 있다. 단순한 인식, 추론, 행동: 제한된 자동화 또는 인간-기계 상호작용
2040년대+
주요 장르: 알고리즘 융합 아키텍처: 모든 곳에 있는 서버 지배적인 이론: 최적의 조합의 메타 학습 인식과 반응: 다양한 학습 방식으로 얻은 지식이나 경험에 근거하여 행동하거나 응답하는 것

어떤 기계 학습 알고리즘을 사용해야 하는가? 이것은 사용 가능한 데이터의 특성과 수량, 그리고 각각의 특정 사용 사례에서 당신의 훈련 목표에 크게 의존한다. 값비싼 비용과 자원을 지불할 가치가 없는 한 가장 복잡한 알고리즘을 사용하지 마십시오.
의사 결정 나무 (Decision Tree): 단계적 응답을 수행하는 과정에서, 전형적인 의사 결정 나무 분석은 계층화 변수 또는 의사 결정 노드를 사용한다. 예를 들어, 주어진 사용자를 신용 신뢰할 수 있거나 신뢰할 수 없는 것으로 분류할 수 있다.
장점: 사람, 장소, 사물의 다양한 특징, 자질, 특성을 평가하는 데 능숙하다. 예를 들어, 규칙에 기반한 신용 평가, 경주 결과에 대한 예측

지원 벡터 기계 (Support Vector Machine): 초평면 (hyperplane) 을 기반으로 지원 벡터 기계는 데이터 군을 분류할 수 있다.
장점: 지원 벡터 기계는 변수 X와 다른 변수들 사이의 관계가 선형적이든 아니든 간에 이진 분류 작업을 수행하는 데 능숙하다. 예를 들어, 뉴스 분류, 손글씨 인식.
회귀 (Regression): 회귀는 인과 변수와 하나 이상의 인과 변수 사이의 상태 관계를 나타낼 수 있다. 이 예에서, 스팸 메일과 비 스팸 메일을 구분한다.
장점: 회귀는 변수들 사이의 연속적인 관계를 식별하는데 사용될 수 있다. 이 관계는 매우 명백하지 않더라도 예를 들면, 도로 교통 분석, 이메일 필터링

순수 베이즈 분류 (Naive Bayes Classification): 순수 베이즈 분류기는 가능한 조건의 분기 확률을 계산한다. 각각의 독립적인 특성은 “순수” 또는 조건에 독립적이므로, 다른 객체에 영향을 주지 않는다. 예를 들어, 5개의 노란색과 빨간색 소구들이 있는 에서 연속적으로 2개의 노란색 소구들이 잡히는 확률은 얼마입니까? 그림의 가장 상단에서 볼 수 있는 분기, 전후로 2개의 노란색 소구들을 잡는 확률은 1/10이다. 순수 베이즈 분류기는 개별적으로 다중 특성의 합동 조건의 확률을 계산한다.
장점: 소규모 데이터 세트에서 눈에 띄는 특징을 가진 관련 개체에 대해, 순수 Bayesian 방법은 이를 빠르게 분류할 수 있다. 예를 들면, 감정 분석, 소비자 분류
숨겨진 마르코프 모델 ((Hidden Markov model): 명백한 마르코프 과정은 완전한 확실성이며, 주어진 상태가 종종 다른 상태와 함께한다. 교통 신호등은 하나의 예이다. 반대로, 숨겨진 마르코프 모델은 가시적 데이터를 분석하여 숨겨진 상태의 발생을 계산한다. 숨겨진 상태 분석을 통해, 숨겨진 마르코프 모델은 가능한 미래 관측 패턴을 추정할 수 있다.
장점: 데이터의 변동성을 허용하고, 인식 및 예측 작업에 적합하다 예를 들면, 얼굴 표정 분석, 날씨 예측

랜덤 포레스트: 랜덤 포레스트 알고리즘은 여러 개의 데이터 서브셋을 가진 나무를 사용하여 의사 결정 나무의 정확도를 향상시킵니다. 이 예는 유전자 표현 수준에서 유방암 재발과 관련된 많은 유전자를 조사하고 재발 위험을 계산합니다.
장점: 무작위 숲 방법은 대규모 데이터 세트와 대량으로 존재하고 때로는 상관없는 특징의 항목에 유용하다는 것이 입증되었습니다. 시나리오 예시: 사용자 유출 분석, 위험 평가
반복 신경 네트워크 (Recurrent neural network): 임의의 신경 네트워크에서, 각 뉴런은 1개 또는 그 이상의 숨겨진 층을 통해 많은 입력을 하나의 출력으로 변환한다. 반복 신경 네트워크 (RNN) 는 값을 더 층별로 전달하여 층별 학습이 가능하게 한다. 즉, RNA는 어떤 형태의 기억이 존재하여 이전 출력이 후자의 출력에 영향을 미치게 한다.
장점: 순환 신경망은 많은 양의 체계화된 정보가 존재할 때 예측할 수 있습니다. 예를 들어, 이미지 분류와 자막 추가, 정치적 감정 분석

긴 단기 기억 (LSTM) 과 게이트 된 반복 단위 신경 네트워크 (GRU) - 초기 형태의 RNN은 소모가 있습니다. 이러한 초기 회전 신경 네트워크는 초기 정보를 소량으로 저장할 수 있지만, 최근의 긴 단기 기억 (LSTM) 과 게이트 된 회전 단위 (GRU) 신경 네트워크는 장기 및 단기 기억을 모두 가지고 있습니다. 다른 말로, 이러한 최근의 RNN은 더 나은 기억을 제어 할 수있는 능력을 가지고 있으며, 이전 값을 보존하거나 여러 일련의 단계를 처리 할 때 필요한 경우 이러한 값을 재배치 할 수 있습니다. 이것은 계층 “침체” 또는 단계적으로 전달되는 값의 최종 훼손을 방지합니다.
장점: 장기 단기 기억과 문 제어 회로 단위 신경망은 다른 회로 신경망과 같은 장점을 가지고 있지만, 더 나은 기억 능력을 가지고 있기 때문에 더 자주 사용됩니다. 예를 들어, 자연어 처리, 번역
컨볼루션 신경 네트워크 (convolutional neural network): 컨볼루션은 후속 계층에서 오는 무게의 통합을 의미하며, 출력 계층을 표기하기 위해 사용될 수 있다.
장점: 매우 큰 데이터 세트, 많은 특성과 복잡한 분류 작업이 있을 때, 융복합 신경망은 매우 유용하다. 예를 들면, 이미지 인식, 문자 변환, 음성 변환, 약물 발견.
http://usblogs.pwc.com/emerging-technology/a-look-at-machine-learning-infographic/
http://usblogs.pwc.com/emerging-technology/machine-learning-methods-infographic/
http://usblogs.pwc.com/emerging-technology/machine-learning-evolution-infographic/
이 글은 Big Data로 부터 가져온 것입니다.