딥 러닝은 «누적 된 신경망»에 사용하는 이름입니다. 즉, 여러 계층으로 구성된 네트워크입니다. 뉴스 수집기는 이제 딥 러닝 모듈을 사용하여 부정적인 뉴스를 필터링하고 주변에서 일어나는 긍정적 인 것들만 보여줍니다. 이것은 우리 언론의 한 부분이 얼마나 노골적으로 선정적이었는지를 감안할 때 특히 유용합니다. 일부 딥 러닝 아키텍처는 문제가 있는 동작을 표시합니다[199] 인식할 수 없는 이미지를 익숙한 범주의 일반 이미지 범주에 속하는 것으로 자신 있게 분류하고[200] 올바르게 분류된 소수 의 섭동을 잘못 분류하는 경우 이미지. [201] Goertzel은 이러한 동작이 내부 표현의 한계로 인한 것이며 이러한 제한으로 인해 이기종 다성분 인공 지능(AGI) 아키텍처에 대한 통합을 저해할 것이라고 가설을 세었습니다. [199] 이러한 문제는 내부적으로 관찰된 개체와 이벤트의 분해와 이미지 문법에 상동상태를 형성하는 딥 러닝 아키텍처에 의해 해결될 수 있다[202] [199] 학습 데이터에서 문법 (시각적 또는 언어적)을 배우는 것은 문법 생산 규칙의 관점에서 개념에 작동하고 모두 인간의 언어 습득의 기본 목표인 상식적인 추론으로 시스템을 제한하는 것과 같습니다[203] 인공 지능(AI)을 제공합니다. [204] 음성 인식을 위한 딥 러닝에 대한 2009NIPS 워크샵[69]은 심층 적인 생성 형 음성 모델의 한계에 의해 동기를 부여받았으며, 더 많은 하드웨어와 대규모 데이터 세트를 제공하면 깊은 신경망(DNN)이 될 수 있습니다. 실용적인. 딥 믿음 망(DBN)의 생성 모델을 사용하여 사전 교육 DNN이 신경망의 주요 어려움을 극복할 수 있을 것으로 여겨졌습니다. [70] 그러나, 컨텍스트에 따라 달라진 대규모 출력 레이어를 사용하는 DNN을 사용할 때 간단한 역전파를 위해 사전 교육을 대량의 교육 데이터로 대체하면 오류율이 보다 현저히 낮아지는 것으로 나타났습니다.

그런 다음 최첨단 가우시안 혼합물 모델 (GMM)/ 숨겨진 마르코프 모델 (HMM) 또한 고급 생성 모델 기반 시스템보다. [60] [71] 두 가지 유형의 시스템에서 생성된 인식 오류의 특성은 특성상 달랐습니다[72][69] 딥 러닝을 기존의 고효율 런타임 음성 디코딩 시스템에 통합하는 방법에 대한 기술적 통찰력을 제공합니다. 모든 주요 음성 인식 시스템에 의해 배포됩니다. [10] [73] [74] 2009-2010년 경 분석, GMM (및 기타 생성 음성 모델) 대 대조.