Jak powstał ten termin?

Dokładne pochodzenie terminu „głębokie uczenie się” jest niejasne, ale ogólnie przypisuje się wielu źródeł. Oto kilka możliwych początków:

1. Geoffrey Hintton's Paper z 2006 roku :W 2006 roku informatyk Geoffrey Hinton opublikował przełomowy artykuł zatytułowany w magazynie „Deep Learning:A Tutorial on Deep Neural Networks”. Niniejszy artykuł jest uważany za punkt orientacyjny w dziedzinie sztucznych sieci neuronowych i pomógł popularyzować termin „głębokie uczenie się”. Hinton i jego koledzy z University of Toronto są powszechnie uważani za pionierów w opracowywaniu technik głębokiego uczenia się.

2. Yoshua Bengio użyć terminu :Yoshua Bengio, kolejny wybitny badacz w tej dziedzinie, również odegrał znaczącą rolę w popularyzacji terminu „głębokie uczenie się” na początku 2000 roku. Bengio i jego koledzy z Université de Montréal przeprowadzili przełomowe badania nad algorytmami głębokiego uczenia się i często używał terminu „głębokie uczenie się” w swoich publikacjach badawczych.

3. Wpływ psychologii poznawczej :Niektórzy uważają, że inspiracja do terminu „głębokie uczenie się” mogła wynikać z pojęcia „głębokiej struktury” w psychologii poznawczej. Głęboka struktura jest terminem stosowanym w języku lingwistycznym i psychologii poznawczej do opisania podstawowej reprezentacji lub składni języka, który wykracza poza cechy słów i fraz na poziomie powierzchni. Ta koncepcja mogła wpłynąć na zrozumienie modeli głębokiego uczenia się jako rejestrowania podstawowych wzorców i złożonych relacji w danych.

4. Porównanie z tradycyjnym uczeniem maszynowym :Termin „głębokie uczenie się” prawdopodobnie został wymyślony w celu odróżnienia go od tradycyjnych metod uczenia maszynowego. Podczas gdy tradycyjne algorytmy uczenia maszynowego często polegają na płytkich sieciach neuronowych lub płytkich przedstawieniach danych, głębokie uczenie się obejmuje korzystanie z głębokich sieci neuronowych z wieloma ukrytymi warstwami. Te głębokie architektury pozwalają na bardziej złożoną i hierarchiczną ekstrakcję funkcji, umożliwiając modele poznawanie danych o wyższym poziomie.

5. Kontekst historyczny :We wczesnych dniach badań sieci neuronowych płytkie sieci neuronowe były normą i stanęły przed ograniczeniami swoich zdolności reprezentacyjnych i zdolności do rozwiązywania złożonych problemów. Pojawienie się potężnych zasobów obliczeniowych, takich jak graficzne jednostki przetwarzania (GPU), pod koniec 2000 roku umożliwiło skuteczne szkolenie głębszych sieci neuronowych. Ten kontekst historyczny przyczynił się do potrzeby terminu, który uchwycił postępy i zwiększoną złożoność tych nowych podejść, stąd termin „głębokie uczenie się” zyskał przyczepność.

Prawdopodobnie jest to połączenie tych czynników, wraz z zbieżnością działań badawczych i przełomów, doprowadziły do ​​powszechnego przyjęcia terminu „głębokie uczenie się” w celu opisania podalowego uczenia maszynowego skupionego na głębokich sieciach neuronowych.