AI Investment Primer: przygotowanie gruntu (część I)
Opublikowany: 2022-03-11Podsumowanie wykonawcze
Co to jest sztuczna inteligencja?
- Sztuczną inteligencję (AI) można po prostu wytłumaczyć jako inteligencję demonstrowaną przez maszyny, w przeciwieństwie do naturalnej inteligencji przejawianej przez ludzi i inne zwierzęta.
- Uczenie maszynowe to podzbiór technik stosowanych w sztucznej inteligencji, a uczenie głębokie to podzbiór technik używanych w uczeniu maszynowym.
- Nastąpiły trzy znaczące fale rozwoju sztucznej inteligencji. Pierwsza w latach 50. i 60., druga w latach 80. i 90., a trzecia rozpoczęła się dekadę temu i zyskała na znaczeniu od 2016 roku (AlphaGo).
Co jest specjalnego w tej fali sztucznej inteligencji?
- Ta fala sztucznej inteligencji jest napędzana przez wzrost i popularność uczenia głębokiego.
- Chociaż techniki głębokiego uczenia istnieją od lat 60., wymagana moc obliczeniowa i dane nie były wystarczająco zaawansowane, aby obsługiwać masowe komercyjne zastosowania aż do ostatnich kilku lat.
- Powodem, dla którego uczenie głębokie jest tak ekscytujące, jest to, że po prostu głębokie uczenie zapewnia znacznie większą wydajność niż inne algorytmy uczenia się.
Kluczowe elementy udanych aplikacji AI.
- Aplikacje AI muszą rozwiązać dobrze zdefiniowany (konkretny) i pożądany (ukierunkowany na pilne i jasne problemy klientów) problem. Rozpoznawanie twarzy, tłumaczenie maszynowe, samochody bez kierowcy, optymalizacja pod kątem wyszukiwarek to dobrze zdefiniowane pożądane problemy. Jednak brak dobrze zdefiniowanych pożądanych problemów sprawia, że trudno jest wyprodukować np. robota ogólnego do sprzątania domu.
- Algorytmy uczenia maszynowego wymagają dostępu do czystych i dobrze oznaczonych danych. To ćwiczenie dotyczące zbierania danych może być trudne lub łatwe, w zależności od tego, jaką komercyjną aplikację tworzysz.
- Firma AI musi opracować solidne i skalowalne algorytmy. Aby to osiągnąć, konieczne są trzy rzeczy: duża ilość dobrze oznaczonych danych, odpowiedni talent oraz pewność, że głębokie uczenie się to właściwa technologia do rozwiązania problemu.
- Skuteczne aplikacje AI wymagają dużej mocy obliczeniowej. Im bardziej zaawansowany algorytm sztucznej inteligencji (np. sieci neuronowe głębokiego uczenia), im większa jest wymagana moc obliczeniowa, tym bardziej kosztowna jest dana operacja.
W ciągu ostatnich kilku lat świat był świadkiem eksplozji zainteresowania sztuczną inteligencją (AI). Koncepcja, która kiedyś ograniczała się głównie do gatunku Sci-Fi, sztuczna inteligencja stała się częścią naszego codziennego życia. Cały czas czytamy o tym w wiadomościach, oglądamy filmy przedstawiające przerażająco wyglądające roboty tańczące w rytm Uptown Funk i słyszymy o tym, jak aplikacje AI wkradają się w nawet najbardziej nieoczekiwane sfery naszego codziennego życia. Ale czy to szum?
Mogłoby być. Zgodnie z raportem Gartnera Hype Cycle for Emerging Technologies, trendy zdemokratyzowanej sztucznej inteligencji, w tym AI PaaS (platforma jako usługa), sztuczna ogólna inteligencja, autonomiczna jazda, głębokie uczenie, występują w różnych punktach krzywej, a głębokie sieci neuronowe znajdują się na szczycie zawyżone oczekiwania. Jednak już na co dzień korzystamy ze sztucznej inteligencji. Od Siri, przez Cortanę po Alexę, możemy teraz rozmawiać z inteligentnymi asystentami. Od wyszukiwarki Google opartej na sztucznej inteligencji po filtry na Instagramie, teraz cieszymy się wygodą szybkiego i trafniejszego reagowania na nasze potrzeby. W Chinach, gdzie innowacja AI kwitnie, firmy takie jak technologia rozpoznawania twarzy Face++ zapewniają bankom natychmiastowe uwierzytelnianie ID, podczas gdy aplikacje takie jak TikTok przesyłają krótkie filmy milionom nastolatków (w rzeczywistości wywołując przy tym znaczne kontrowersje).
Osobiście wierzę, że chociaż z pewnością istnieją pewne przesadzone oczekiwania i biznesy, sztuczna inteligencja to przyszłość . Założyłem własny start-up AI na wczesnym etapie, aby uchwycić tę niepowtarzalną okazję do udziału w rewolucji technologicznej. Jako były inwestor VC stale szukam okazji do inwestowania w sztuczną inteligencję. Dlatego uważam, że pomimo niezaprzeczalnego hałasu otaczającego przestrzeń, ogromny wzrost inwestycji w AI jest również uzasadniony.
Ale mając to na uwadze, zaskakuje mnie, że szczególnie wśród społeczności inwestorów nadal istnieje duża luka w zrozumieniu. Inwestorzy chętnie wkładają w pracę pieniądze, ale często brakuje im ważnej podstawowej wiedzy, która moim zdaniem jest niezbędna, aby być skutecznym inwestorem w tej przestrzeni. Celem tego artykułu jest zatem podzielenie się i dostarczenie przydatnego kontekstu i informacji dla osób zainteresowanych inwestowaniem w tę ekscytującą dziedzinę. Biorąc pod uwagę szeroki zakres tematu, podzieliłem swoje przemyślenia na dwie części. Pierwsza miała na celu omówienie kilku podstawowych elementów, które należy znać, aby rozpocząć przygodę z AI - pewnego rodzaju 101. Druga część tej serii będzie bardziej praktyczna i zagłębi się w temat oceny inwestycji w sztuczną inteligencję oraz różnych sposobów inwestowania.
NB Ten post nie ma charakteru technicznego. Skierowany jest do inwestorów i szerszej społeczności finansowej, a więc czytelników nietechnicznych.
Co to jest sztuczna inteligencja?
W rzeczywistości istnieje wiele definicji sztucznej inteligencji, więc kiedy jestem proszony o jej zdefiniowanie, często wybieram starą dobrą Wikipedię, która moim zdaniem zapewnia zadowalającą definicję dla odbiorców nietechnicznych:
Sztuczna inteligencja (AI), czasami nazywana inteligencją maszyn, to inteligencja demonstrowana przez maszyny, w przeciwieństwie do naturalnej inteligencji przejawianej przez ludzi i inne zwierzęta.
Innymi słowy, każda inteligencja nienaturalna jest inteligencją „sztuczną”, niezależnie od tego, jak ją osiągnąć. Techniki wykorzystywane do osiągnięcia sztucznej inteligencji obejmują reguły „jeśli-to”, logikę, drzewa decyzyjne, regresje i uczenie maszynowe, w tym głębokie uczenie. Jednym z moich ulubionych i zabawnych narzędzi wyjaśniających, jak działa sztuczna inteligencja, jest ten film o tym, jak komputer uczy się grać w Super Mario.
Mówiąc o sztucznej inteligencji, zawsze będziesz słyszeć te trzy kluczowe terminy: sztuczna inteligencja, uczenie maszynowe i głębokie uczenie. Czasami są używane zamiennie, ale są różne. Mówiąc najprościej, uczenie maszynowe to podzbiór technik stosowanych w sztucznej inteligencji. Głębokie uczenie to podzbiór technik używanych w uczeniu maszynowym .
Blog Nvidii wykonuje niezłą robotę, podsumowując związek między tymi trzema terminami. Zapewnia również przydatny przegląd trzech fal rozwoju sztucznej inteligencji. Pierwsza fala sztucznej inteligencji miała miejsce w latach 50. i 60. i była świadkiem kilku pierwszych ważnych kamieni milowych, takich jak wygrana IBM 701 w grze w warcaby nad mistrzem szachownicy Robertem Nealeyem. W latach 80. i 90. Deep Blue pokonał mistrza człowieka Kasparowa w szachach. W marcu 2016 r. AlphaGo pokonało pierwszego gracza Go Lee Sedola. Za każdym razem, gdy sztuczna inteligencja pokonała ludzkich mistrzów w grach, wywołało to nowy etap szumu dla sztucznej inteligencji. Następnie, ponieważ technologia nie była w stanie dostarczyć aplikacji spełniających oczekiwania opinii publicznej, szum wokół sztucznej inteligencji przekształciłby się w zimę w zakresie sztucznej inteligencji, przy malejących inwestycjach i grantach badawczych.
Jak wspomniano wcześniej, uczenie maszynowe jest podzbiorem sztucznej inteligencji. Według Nvidii uczenie maszynowe w swojej najbardziej podstawowej formie to „praktyka wykorzystywania algorytmów do analizowania danych, uczenia się na ich podstawie, a następnie dokonywania ustaleń lub prognoz dotyczących czegoś na świecie. Dlatego zamiast ręcznie kodować procedury oprogramowania z określonym zestawem instrukcji do wykonania określonego zadania, maszyna jest „szkolona” przy użyciu dużych ilości danych i algorytmów, które dają jej możliwość uczenia się, jak wykonać zadanie”. Bardzo powszechnym przykładem uczenia maszynowego jest filtr spamu. Filtr spamu Google może rozpoznawać spam, identyfikując słowa wyzwalające, takie jak „Książę”, „Nigeria” i „luksusowy zegarek”. Może również nadal „uczyć się” na podstawie ręcznej klasyfikacji spamu przez użytkowników. Na przykład e-mail z wiadomością „wyślij 1000 USD, aby dostać ten ekskluzywny lek na raka na następujące konto bankowe” został przeoczony przez filtr antyspamowy Google. Gdy użytkownik oznaczy ją jako spam, Gmail analizuje wszystkie słowa kluczowe w tej konkretnej wiadomości e-mail i „uczy się”, jak traktować wiadomości zawierające kombinację słów „1000 USD”, „narkotyki” i „konto bankowe” jako spam. Istnieje wiele modeli matematycznych wykorzystywanych przez profesjonalistów do uczenia maszynowego, np. regresja, logistyka, sieci bayesowskie, klastrowanie.
Co jest specjalnego w tej fali sztucznej inteligencji?
Ta fala sztucznej inteligencji jest napędzana przez popularność uczenia głębokiego . Jako podzbiór uczenia maszynowego, głębokie uczenie nie zostało niedawno wynalezione. W rzeczywistości, według Wikipedii, „pierwszy ogólny, działający algorytm uczenia się dla nadzorowanych, głębokich, sprzężonych, wielowarstwowych perceptronów został opublikowany przez Alexeya Ivakhnenko i Lapę w 1965 roku”. Ponieważ jednak moc obliczeniowa i dane nie były wystarczająco zaawansowane, aby wspierać masowe komercyjne zastosowanie technik głębokiego uczenia, popularność zyskała dopiero w 2006 r., kiedy Geoffrey Hinton i inni opublikowali swój przełomowy artykuł „A Fast Learning Algorithm for Deep Belief”. Sieci”. Pomimo zimy lat 90. i pierwszej połowy 2000 r. kilku naukowców, w tym trzech akademickich guru głębokiego uczenia, Geoffrey Hinton, Yann LeCun i Yoshua Bengio, nadal pracuje nad uczeniem głębokim w dziedzinie akademickiej. Gwałtowny przełom w zakresie mocy obliczeniowej, na przykład przetwarzania w chmurze i procesorów graficznych, w połączeniu z dostępnością dużych zbiorów danych za pośrednictwem gospodarki cyfrowej, umożliwił wdrożenie algorytmów głębokiego uczenia się w ostatniej dekadzie. Na przykład badania Google dotyczące autonomicznych samochodów rozpoczęły się w 2009 roku.

Technicznie rzecz biorąc, głębokie uczenie można zdefiniować jako „klasę algorytmów uczenia maszynowego, które:
- używaj kaskady wielu warstw jednostek przetwarzania nieliniowego do wyodrębniania i przekształcania cech. Każda kolejna warstwa używa danych wyjściowych z poprzedniej warstwy jako danych wejściowych.
- uczyć się w sposób nadzorowany (np. klasyfikacja) i/lub nienadzorowany (np. analiza wzorców).
- nauczyć się wielu poziomów reprezentacji, które odpowiadają różnym poziomom abstrakcji; poziomy tworzą hierarchię pojęć”.
Kluczem jest „wiele warstw” w porównaniu z tradycyjnym uczeniem maszynowym. Na przykład, jak odróżniłbyś kota od psa? Gdybyś używał uczenia maszynowego, mógłbyś wyodrębnić kilka cech, które są wspólne zarówno dla psa, jak i kota, takie jak dwoje uszu, futrzana twarz, odległość między oczami a nosem i ustami itp. I możesz otrzymać wynik mówiący zdjęcie przedstawia 50% psa, 50% kota - mało przydatne. Korzystając z głębokiego uczenia, nie wiesz jednak nawet, jakie są cechy odróżniające kota od psa, ale maszyna, poprzez wiele warstw tworzenia nowych funkcji i setki (lub tysiące) modeli statystycznych, zapewniłaby więcej dokładna wydajność - np. 90% pies, 10% kot. Poniższe dwa wykresy ilustrują, w jaki sposób sieć neuronowa „uczy się” oraz różnicę między klasycznym uczeniem maszynowym a sieciami neuronowymi.
Czytelnicy mogą drapać się po głowie po przeczytaniu powyższego i słusznie. Ale wracając do naszego pierwotnego celu: z punktu widzenia inwestora, co jest takiego specjalnego w deep learningu? Można by odpowiedzieć na to pytanie różnymi dalszymi skomplikowanymi wyjaśnieniami technicznymi, ale mówiąc wprost, wykres poniżej po lewej bardzo dobrze wyjaśnia: głębokie uczenie zapewnia znacznie większą wydajność niż inne algorytmy uczenia. Weźmy przykład rozpoznawania mowy opisany na blogu Microsoft (wykres poniżej po prawej): pierwotny wskaźnik błędów rozpoznawania mowy z 1988 r. wynosił 60-70%, podczas gdy nowy system Microsoft wykorzystujący głębokie uczenie wynosił tylko 6,3% w 2014 r.
Kluczowe elementy udanych aplikacji AI
Uważam, że istnieją 4 kluczowe elementy sukcesu produktu uczenia maszynowego (w tym uczenia głębokiego): dobrze zdefiniowane pożądane problemy, dane, algorytm(y) i moc obliczeniowa .
Przede wszystkim aplikacja AI musi rozwiązać dobrze zdefiniowany (konkretny) i pożądany (ukierunkowany na pilne i jasne problemy klientów) problem . Pomyśl o różnych grach, w które nauczono komputer grać w 3 różne fale sztucznej inteligencji: warcaby, szachy, Go. Były to bardzo dobrze zdefiniowane problemy i dlatego łatwiejsze do rozwiązania przez komputer. Rozpoznawanie twarzy, tłumaczenie maszynowe, samochody bez kierowcy, optymalizacja pod kątem wyszukiwarek to dobrze zdefiniowane pożądane problemy. Jednak brak dobrze zdefiniowanych pożądanych problemów powoduje, że tak trudno jest wyprodukować np. robota ogólnego sprzątania domu. Proste domowe czynności, np. zbieranie kubków i wkładanie prania do kosza, wymagają rozwiązania zbyt wielu problemów. Na przykład wymaga, aby maszyna rozpoznała, jakie przedmioty należy podnieść (kubki, pranie brudne i nieczyste itp.), dokąd się udać i jak się tam udać (unikać przeszkód w gospodarstwie domowym i podróżować do pożądanego lokalizacji), manipulując każdym przedmiotem z pożądaną mocą, aby nie stłukł kubka lub prania itp.
Po drugie, opracowanie algorytmu uczenia maszynowego wymaga dostępu do czystych i dobrze oznaczonych danych . Dzieje się tak, ponieważ algorytmy te są budowane poprzez dostarczanie różnym modelom statystycznym dużej ilości danych, które są dobrze oznakowane, w celu ustalenia niezbędnych relacji predykcyjnych. To ćwiczenie dotyczące zbierania danych może być trudne lub łatwe, w zależności od tego, jaką komercyjną aplikację tworzysz. Na przykład, aby zebrać niezbędne dane potrzebne do opracowania algorytmu komputerowej wizji dla pól winorośli, mój startup potrzebował zdjęć terenowych z różnych lokalizacji z różnymi odmianami i jeszcze trudniejszymi - różnymi porami roku. Ponieważ każdy sezon trwa jeden rok, uzyskanie satysfakcjonujących produktów zajmie lata. Natomiast jeśli chcesz opracować dobry algorytm rozpoznawania twarzy w Chinach, aby zebrać np. 10 milionów zdjęć, wystarczy ustawić kamerę na ruchliwej ulicy w Pekinie na tydzień i zadanie wykonane. Innym przykładem może być spersonalizowany agregator wiadomości oparty na sztucznej inteligencji w Chinach, Toutiao, który poznaje Twoje osobiste preferencje dotyczące wiadomości i pokazuje tylko najbardziej odpowiednie wiadomości. Zbieranie danych w tym przypadku jest znowu dużo prostsze, np. liczba artykułów, które czytasz w każdej kategorii wiadomości, ilość czasu, jaką poświęcasz na każdy artykuł itp.
Po trzecie, biznes AI musi opracować solidne i skalowalne algorytmy . Aby to osiągnąć, są trzy niezbędne rzeczy: duża ilość dobrze oznaczonych danych (jak omówiono powyżej), odpowiedni talent oraz pewność, że uczenie głębokie jest właściwą technologią do rozwiązania problemu. Biznes AI musi mieć odpowiedni talent, aby opracować niezbędne algorytmy, ale są one wysoce wyspecjalizowane, drogie i rzadkie. Na przykład, gdy szukałem zatrudnienia do mojego startupu, odkryłem, że potrzebuję przynajmniej naukowców zajmujących się danymi (zazwyczaj doktorów) do opracowania prototypów algorytmów, inżynierów do projektowania frameworków, programistów (TensorFlow, Python, C++ itp.) do kodowania w skalowalne programy i ludzi do ich złożenia (menedżer produktu, UX, UI itp.).
Inną kwestią jest moc obliczeniowa . Czemu? Ponieważ sieci neuronowe głębokiego uczenia wymagają znacznie więcej obliczeń niż inne metody sztucznej inteligencji. Na przykład, dla tego samego zadania, jakim jest identyfikacja psa na obrazie, wytrenowanie modelu za pomocą algorytmu uczenia głębokiego może wymagać, powiedzmy, 10 modeli statystycznych przy zbiorze danych o wielkości 1 GB. Model głębokich sieci neuronowych może wymagać, powiedzmy, 1000 modeli statystycznych działających w zestawie danych o wielkości 100 GB. Wyniki są lepsze w przypadku sieci, ale wymagana moc obliczeniowa jest znacznie większa. W rezultacie modele te wymagają nie tylko jednego komputera (jak to, co robimy na naszym komputerze osobistym), ale przetwarzania rozproszonego z każdym GPU obsługującym, powiedzmy, 5% obliczeń, tak aby 20 GPU razem mogło obsłużyć wymaganą objętość obliczeniową. To z kolei oznacza konieczność budowania własnych serwerów klastrowych GPU lub wynajmowania mocy obliczeniowej od platform takich jak AWS. Moc obliczeniowa z chmury obliczeniowej lub własnych serwerów jest kosztowna, chociaż w uczciwości jednostkowy koszt przetwarzania powinien stale spadać (zgodnie z prawem Moore'a).
Wniosek
Wielu uważa, że teraz jest najlepszy czas, aby zobaczyć przełomy i start-upy AI, ponieważ cyfryzacja wielu branż i konsumenckiego internetu udostępnia dużą ilość celowo gromadzonych, uporządkowanych danych cyfrowych. Rozwój GPU Nvidii i FPGA Intela sprawia, że przeprowadzanie niezbędnych obliczeń jest znacznie tańsze i szybsze. Obecna fala innowacji AI jest zatem napędzana przez ważne postępy w uczeniu głębokim .
Ale aby aplikacja AI odniosła sukces, potrzebny jest dobrze zdefiniowany pożądany problem, dane, algorytm i znaczna moc obliczeniowa. W przypadku kierowników czytających ten artykuł, którzy rozważają wykorzystanie sztucznej inteligencji do wzmocnienia swojej działalności, zastosowanie mają również cztery kluczowe elementy wymienione powyżej.
Jak możesz dowiedzieć się więcej o sztucznej inteligencji? Istnieje wiele książek, seminariów, kursów Coursera, artykułów naukowych i organizacji, takich jak Deep Learning, aby dowiedzieć się o sztucznej inteligencji. Ponieważ ten artykuł jest skierowany do inwestorów, którzy chcą poznać podstawy sztucznej inteligencji, nie poruszałem wielu gorących tematów dotyczących sztucznej inteligencji, takich jak potencjał sztucznej inteligencji jako zagrożenia, perspektywy branży na przyszłość, inwestycje w sztuczną inteligencję, zalety oraz wady różnych algorytmów (np. CNN), prototypowanie vs. skalowanie, główne języki programowania itp. W części 2 tej serii zagłębię się w to, jak oceniać firmy AI z perspektywy inwestora.