Dezvoltarea proiectelor AI – Cum ar trebui să se pregătească managerii de proiect

Publicat: 2022-03-11

Ascultă versiunea audio a acestui articol

În calitate de manager de proiect, probabil că te-ai implicat într-o serie de proiecte IT de-a lungul carierei tale, cuprinzând structuri monolitice complexe până la aplicații web SaaS. Cu toate acestea, odată cu progresul inteligenței artificiale și a învățării automate, noi proiecte cu cerințe și probleme diferite apar la orizont cu o viteză rapidă.

Odată cu creșterea acestor tehnologii, devine din ce în ce mai puțin „drăguț de a avea” și, în schimb, esențial pentru managerii de proiect tehnici să aibă o relație sănătoasă cu aceste concepte. Potrivit Gartner, până în 2020, inteligența artificială va genera 2,3 milioane de locuri de muncă, depășind cele 1,8 milioane pe care le va elimina – generând 2,9 trilioane de dolari în valoare de afaceri până în 2021. CEO-ul Google ajunge până la a spune că „AI este unul dintre cele mai importante lucruri. umanitatea lucrează. Este mai profund decât […] electricitatea sau focul.”

Având în vedere că aplicațiile inteligenței artificiale perturbă deja industrii, de la finanțe la asistență medicală, PM tehnicieni care pot profita de această oportunitate trebuie să înțeleagă modul în care managementul proiectelor AI este distinct și cum se pot pregăti cel mai bine pentru peisajul în schimbare.

Teorie

Ce înseamnă totul: AI vs. ML

Înainte de a aprofunda, este important să aveți o înțelegere solidă a ceea ce este cu adevărat AI. Cu mulți termeni diferiți adesea folosiți interschimbabil, să ne aruncăm mai întâi în cele mai comune definiții.

Progresia AI, învățarea automată și învățarea profundă

Progresia AI, învățarea automată și învățarea profundă

Inteligență artificială (AI)

AI este un domeniu al informaticii dedicat rezolvării problemelor care altfel necesită inteligență umană, de exemplu, recunoașterea modelelor, învățarea și generalizarea.

Acest termen a fost suprautilizat în ultimii ani pentru a desemna inteligența generală artificială (AGI) care se referă la programe informatice conștiente de sine, capabile de cunoaștere reală. Cu toate acestea, majoritatea sistemelor AI pentru viitorul previzibil vor fi ceea ce oamenii de știință în computere numesc „AI îngustă”, ceea ce înseamnă că vor fi proiectate să îndeplinească o sarcină de cogniție foarte bine, mai degrabă decât să „gândească” cu adevărat pentru ele însele.

Învățare automată (ML)

Învățarea automată este un subset al inteligenței artificiale care utilizează tehnici statistice pentru a oferi computerelor capacitatea de a învăța din date fără a fi programate în mod explicit.

AI și ML au fost folosite în mod interschimbabil de multe companii în ultimii ani, datorită succesului unor metode de învățare automată în domeniul AI. Pentru a fi clar, învățarea automată denotă capacitatea unui program de a învăța , în timp ce inteligența artificială cuprinde învățarea împreună cu alte funcții.

Pentru a afla mai multe despre rețelele neuronale și învățarea profundă, consultați anexa de la sfârșitul acestui articol.

O distincție importantă: AI vs. algoritmi standard

O concluzie cheie a AI este că algoritmii săi folosesc o cantitate mare de date pentru a-și ajusta structura internă, astfel încât, atunci când sunt prezentate date noi, acestea să fie clasificate în conformitate cu datele anterioare furnizate. Numim aceasta „învățare” din date, mai degrabă decât operarea conform instrucțiunilor de clasificare scrise strict în cod.

Imaginați-vă că vrem să scriem un program care să diferențieze mașinile de camioane. În abordarea tradițională de programare, am încerca să scriem un program care caută caracteristici specifice, indicative, cum ar fi roți mai mari sau o caroserie mai lungă. Ar trebui să scriem cod care să definească în mod specific cum arată aceste caracteristici și unde ar trebui să fie găsite într-o fotografie. Este foarte dificil să scrieți un astfel de program și să îl faceți să funcționeze în mod fiabil, ceea ce poate produce atât false pozitive, cât și false negative, până la un punct în care ar putea să nu fie utilizabil deloc.

Aici algoritmii AI devin foarte utili. Odată ce un algoritm AI este antrenat, îi putem arăta multe exemple și își ajustează structura internă pentru a începe să detecteze caracteristici relevante pentru clasificarea cu succes a imaginilor, în loc să se bazeze pe definiții statice de caracteristici prescrise.

Managementul de proiect AI în practică

Datele sunt rege

Oamenii nu sunt grozavi în a face față unor volume mari de date, iar volumul mare de date de care dispunem uneori ne împiedică să le folosim direct. Aici intervin sistemele AI.

Un concept de bază în ceea ce privește sistemele AI este că predicțiile lor sunt la fel de bune ca și datele lor. De exemplu, un algoritm cu un milion de puncte de date va depăși același algoritm cu 10.000 de puncte de date. Mai mult, BCG raportează că „multe companii nu înțeleg importanța datelor și a instruirii pentru succesul AI. Adesea, date mai bune sunt mai esențiale pentru construirea unui sistem inteligent decât algoritmii mai buni, așa cum de multe ori hrănirea depășește natura în ființele umane.”

Cu aceste cunoștințe în remorche, pregătirea și curățarea datelor este ceva care va deveni mai răspândit în procesul de proiect. Acest pas este adesea partea cea mai intensivă a forței de muncă a construirii unui sistem AI, deoarece majoritatea companiilor nu au datele pregătite în formatele corecte - astfel încât analiștii de date ar putea dura ceva timp pentru a finaliza acest pas esențial.

Pregătirea datelor este un pas cheie în managementul proiectelor AI.

Pregătirea datelor este un pas cheie în managementul proiectelor AI.

În plus, lucrările de configurare a infrastructurii de date și de curățare a datelor sunt mult mai liniare decât dezvoltarea de software obișnuită și ar putea necesita o metodologie diferită de management de proiect.

Pentru a rezuma, construirea infrastructurii de date potrivite și pregătirea datelor pentru a fi utilizate poate dura mult mai mult decât construirea modelului de învățare automată pentru a rula datele. Aceasta este o considerație importantă pentru managerii de proiect, deoarece gestionează echipe și se gândesc la domeniul AI și la estimările de proiect.

În plus, setul de date ar trebui să fie actualizat continuu cu noile date. Accesul la seturi de date unice ar putea fi principalul factor decisiv care definește care produs ML are cel mai mult succes. Este esențial să fii la curent cu acest lucru pentru a obține cea mai bună performanță posibilă pentru proiectul tău ML, chiar și după lansare.

Ciclul de viață al dezvoltării AI

Cei mai mulți dintre voi vor fi familiarizați cu ciclul de viață standard al dezvoltării sistemelor (SDLC), împreună cu modul în care diferite metodologii și tehnologii îl modelează. Este important de menționat că dezvoltarea AI va aduce un nou set de provocări în domeniu. Putem împărți ciclul de viață al dezvoltării AI în acești pași: ideea și descoperirea datelor, prioritizarea MVP-urilor și dezvoltarea MVP-urilor în produse cu drepturi depline.

Ideeare și descoperire de date

În această primă etapă, accentul ar trebui să fie pus pe două lucruri cheie: utilizatorul final al produsului ML și ce pool-uri de date sunt disponibile.

Abordând problema din două părți independente, aceste tehnici pot ajuta un manager de proiect să restrângă rapid oportunitățile de produse ML disponibile în cadrul unei companii. În această fază, PM de top pot beneficia de cunoștințele lor despre spațiul de învățare automată pentru a înțelege mai bine dificultatea la care pot fi rezolvate anumite probleme. Lucrurile se mișcă foarte repede în domeniul ML, iar unele probleme grele pot fi facilitate mult de noile dezvoltări în cercetare.

După cum sa menționat anterior, odată ce datele sunt descoperite, acestea trebuie curățate și pregătite. Această sarcină specifică se realizează în mod normal în pași liniari, care nu se încadrează perfect în metodologiile tipice ale proiectelor, cum ar fi Agile sau Waterfall, deși pot fi forțați în sprinturi. În mod obișnuit, curățarea datelor se face iterativ prin creșterea treptată a dimensiunii seturilor de date și pregătirea lor în paralel cu alte eforturi de dezvoltare.

Prioritizarea produsului minim viabil (MVP)

Adevărul că este mai bine să aveți un prototip funcțional al unui produs mai mic, mai degrabă decât unul mare neterminat, rămâne aici cu produse de învățare automată. Noile MVP ML ​​ar trebui să aibă prioritate în funcție de viteza de livrare și de valoarea lor pentru companie. Dacă puteți livra produse, chiar și cele care pot fi mai mici, cu viteză, poate fi o victorie bună și rapidă pentru întreaga echipă - ar trebui să acordați prioritate acestor produse mai întâi.

Pregătirea acestor MVP în mod clasic Agile este o idee bună, iar echipa de dezvoltare ar trebui să se concentreze pe furnizarea de modele ML bazate pe seturile de date în continuă îmbunătățire, pregătite independent de echipa de date. O distincție importantă aici este că echipa de date nu trebuie neapărat să lucreze prin aceeași structură Sprint ca și echipa care formează MVP-ul .

MVP la produs cu drepturi depline

Acest pas este locul în care infrastructura de date devine cheia. Dacă produsul dvs. ML necesită acces API de înaltă frecvență de pe tot globul, atunci ar trebui să vă gândiți acum cum puteți extinde infrastructura pentru a susține produsul ML.

Aici trebuie evaluate cu atenție modificările aduse modulelor ML pentru a evita deteriorarea performanței produsului actual. Reantrenarea modulelor ML cu noi algoritmi sau seturi de date nu aduce întotdeauna o creștere liniară a performanței - prin urmare, este necesară o cantitate substanțială de testare înainte de implementarea live. Testarea modulului ML pentru cazurile de margine și potențialele atacuri generative de rețea adversară (GAN) sunt încă la început, dar cu siguranță este ceva de care trebuie să țină cont de managerii de proiect atunci când rulează un produs ML live.

Roluri cheie în cadrul ciclului de viață al dezvoltării AI

Cerințele mari de date ale dezvoltării aplicațiilor ML aduc noi roluri în SDLC-ului produselor AI. Pentru a fi un mare manager de proiect în domeniul aplicațiilor ML, trebuie să fii foarte familiarizat cu următoarele trei roluri: cercetători de date, ingineri de date și ingineri de infrastructură. Deși uneori sunt mascați sub alte titluri, inclusiv ingineri de învățare automată, ingineri de infrastructură de învățare automată sau oameni de știință în învățarea automată, este important să aveți o înțelegere solidă a acestor poziții de bază și a impactului lor asupra procesului de dezvoltare ML.

Trei roluri cheie cu care PM-ul tehnici ar trebui să fie familiarizați: cercetător de date, inginer de date și inginer de infrastructură

Trei roluri cheie cu care PM-ul tehnici ar trebui să fie familiarizați: cercetător de date, inginer de date și inginer de infrastructură

Data Scientist

Oamenii de știință de date sunt indivizii care construiesc modelele de învățare automată. Ei sintetizează idei pe baza înțelegerii lor profunde a statisticilor aplicate, a învățării automate și a analizei și apoi își aplică cunoștințele pentru a rezolva probleme reale de afaceri.

Oamenii de știință de date sunt uneori văzuți ca versiuni avansate ale analiștilor de date. Cu toate acestea, oamenii de știință în date au de obicei abilități puternice de programare, sunt confortabili să proceseze cantități mari de date care se întind pe centrele de date și au experiență în învățarea automată.

De asemenea, se așteaptă ca aceștia să aibă o bună înțelegere a infrastructurilor de date și a extragerii de date mari și să poată efectua singuri exerciții de explorare, analizând date și găsind indicii și perspective inițiale în cadrul acestora.

Abilități fundamentale: Python, R, Scala, Apache Spark, Hadoop, Machine Learning, Deep Learning, Statistici, Data Science, Jupyter, RStudio

Inginer de date

Inginerii de date sunt ingineri software specializați în construirea de software și infrastructură necesare pentru ca produsele ML să funcționeze. Aceștia tind să se concentreze pe arhitectura generală și, deși s-ar putea să nu fie experți în învățarea automată, analiză sau big data, ar trebui să înțeleagă bine aceste subiecte pentru a-și testa software-ul și infrastructura. Acest lucru este necesar pentru a permite modelelor de învățare automată create de cercetătorul de date să fie implementate cu succes și expuse la lumea reală.

Abilități fundamentale: Python, Hadoop, MapReduce, Hive, Pig, Data Streaming, NoSQL, SQL, Programare, DashDB, MySQL, MongoDB, Cassandra

Inginer Infrastructură

Inginerii de infrastructură se ocupă de coloana vertebrală a produselor ML: stratul de infrastructură. În timp ce inginerii de date pot construi o parte din această infrastructură, aceasta este adesea construită pe partea superioară a stratului pregătit și agreat de echipa de infrastructură.

Inginerii de infrastructură pot lucra în mai multe echipe ML, cu scopul de a crea un mediu scalabil și eficient în care aplicațiile ML se pot scala pentru a servi milioane de utilizatori. Inginerii de infrastructură nu numai că se ocupă de nivelul software al platformelor, ci și coordonează cu partenerii centrelor de date pentru a se asigura că totul funcționează fără probleme, de la locația geografică a datelor găzduite până la hardware. Pe măsură ce aceste aspecte câștigă în importanță pentru proiectele ML, inginerii de infrastructură devin din ce în ce mai importanți în companiile bazate pe inteligență artificială.

Abilități fundamentale: Kubernetes, Mesos, EKS, GKE, Hadoop, Spark, HDFS, CEPH, AWS, Cloud Computing, Operațiuni cu centre de date, Infrastructură de calcul end-to-end, Infrastructură IT, Managementul serviciilor

Provocări comune astăzi

Odată cu apariția produselor bazate pe AI și ML, se așteaptă ca managerii de proiect să se confrunte cu provocări atât familiare, cât și complet străine. Primitorii de conducere sunt foarte conștienți de aceste probleme potențiale pe parcursul întregului proces, de la definirea proiectelor până la finalizare.

Analiză a realității

În ciuda popularității și promisiunii AI, există șanse mari ca problema pe care încercați să o rezolvați să nu necesite o soluție elaborată AI .

O mulțime de probleme de predicție pot fi rezolvate folosind modele de regresie statistică mai simple și, în unele cazuri, mai fiabile. Este foarte important ca un PM să facă o verificare a stării de spirit înainte de a începe un proiect pentru a se asigura că problema necesită cu adevărat învățarea automată.

Uneori este înțelept să începeți cu un model statistic mai simplu și să treceți în paralel cu o soluție bazată pe învățarea automată. De exemplu, dacă construiți un motor de recomandare, ar putea fi înțelept să începeți cu o soluție mai simplă, cu un ciclu de viață de dezvoltare mai rapid, oferind o bază bună pe care modelul ML ulterior ar trebui să o depășească.

AI Scope Creep

Cele mai frecvente cauze ale scăderii domeniului de aplicare în proiectele ML sunt legate de încercarea de a face prea multe lucruri simultan și de subestimarea efortului necesar pentru pregătirea datelor .

Pentru a aborda prima problemă, gestionați părțile interesate astfel încât aceștia să înțeleagă că este mai bine să începeți cu câștiguri rapide decât cu planuri grandioase. Comunicați această abordare în mod continuu pe tot parcursul proiectului, pe măsură ce construiți și testați.

Începeți cu caracteristici mici, atomice, care pot fi ușor definite și testate. Dacă vă aflați cu o sarcină complexă, încercați să o împărțiți în sarcini mai simple, care sunt proxy bune pentru sarcina dvs. principală. Ar trebui să fie ușor de comunicat ceea ce aceste sarcini își propun să îndeplinească.

De exemplu, dacă încercați să preziceți când un utilizator va face clic pe un anume anunț, puteți încerca mai întâi să estimați dacă utilizatorul respinge anunțul în întregime. În această abordare, problema este simplificată și poate fi mai bine adaptată și prezisă de modelele actuale ML. Facebook a realizat o serie grozavă care aprofundează acest subiect, concentrându-se mai mult pe pipeline ML de la început până la livrarea modelului.

Pentru a vă adresa celui de-al doilea contributor la scăderea domeniului, asigurați-vă că sunteți capabil să pregătiți datele pentru a vă sprijini proiectele ML. Pur și simplu presupunerea că aveți datele necesare, în formatul necesar, este cea mai frecventă greșeală pe care PM-urile o fac atunci când abia încep cu proiecte ML. Pregătirea și curățarea datelor fiind adesea partea mai lungă a procesului de proiect ML, gestionarea acestui pas este esențială. Asigurați-vă că cercetătorul dvs. de date are acces la datele potrivite și că poate verifica calitatea și validitatea acestora înainte de a veni cu funcțiile ML pe care doresc să le construiască.

Pregătiți-vă să faceți etichetarea și curățarea datelor ca un exercițiu continuu pe tot parcursul proiectului, nu doar ca inițiator, deoarece proiectul poate beneficia întotdeauna de date mai bune și mai multe. Întrucât acest pas nu este cea mai captivantă sarcină, împărțiți această muncă în sprinturi, astfel încât echipa dvs. de date să poată simți progresul eforturilor lor în loc să se confrunte cu un nesfârșit întârziere de bilete.

Uneori, companiile externalizează etichetarea datelor către terți. Deși acest lucru poate ajuta la economisirea timpului și a costurilor inițiale, poate produce și date nesigure, împiedicând în cele din urmă succesul modelului dvs. ML. Pentru a evita acest lucru, utilizați tehnica de suprapunere multiplă, în care fiecare parte de date este verificată de mai multe părți și utilizată numai dacă rezultatele acestora se potrivesc.

Când planificați proiectul, acordați suficient timp pentru ca echipa de date să facă ajustări în cazul în care cerințele dvs. de etichetare se modifică la mijlocul proiectului și este necesară reetichetarea.

În cele din urmă, verificați dacă datele dvs. pot fi utilizate cu ușurință cu metodele ML existente în loc să inventați noi metode ML, deoarece pornind de la zero poate crește drastic timpul și aria de aplicare a proiectului. Rețineți că, dacă încercați să rezolvați o problemă ML care nu a fost încă rezolvată, există șanse mari să eșuați. În ciuda succesului învățării automate și a numărului de lucrări de cercetare publicate, rezolvarea problemelor ML poate fi un efort foarte dificil. Este întotdeauna cel mai ușor să începeți cu o zonă de ML care are o mulțime de exemple și algoritmi buni și să încercați să o îmbunătățiți mai degrabă decât să încercați să inventați ceva nou.

Învățare automată, așteptări și UX

Fiecare PM ar trebui să fie pregătit să se gândească la experiența utilizatorului a produselor AI pe care le creează și la cum să gestioneze cel mai bine echipa care le construiește. Google a scris un articol grozav despre modul lor de a gândi despre UX și AI, cu accent pe interacțiunea umană.

Acest punct este deosebit de important dacă produsul dvs. ML trebuie să interacționeze cu operatorii sau chiar să fie înlocuit de aceștia. Proiectarea ar trebui să adauge cantitatea minimă necesară de stres operatorilor și utilizatorilor sistemului. De exemplu, chatboții se bazează adesea pe învățarea automată, dar pot fi preluați fără probleme de un operator uman.

Există, de asemenea, posibilitatea ca părțile interesate să aștepte mult mai mult de la produsele de învățare automată decât ceea ce pot oferi. Aceasta este de obicei o problemă care decurge din hype-ul creat de mass-media atunci când scrieți despre produsele AI și, prin urmare, este important ca managerul de proiect să stabilească așteptări rezonabile.

Asigurați-vă că explicați ce este cu adevărat instrumentul AI și ce poate realiza pentru părțile interesate, astfel încât să le puteți gestiona suficient de bine așteptările înainte de a testa instrumentul. UX bun este grozav, dar nu poate oferi valoare utilizatorilor cu așteptări nerealiste, așa că este esențial pentru orice PM implicat să le gestioneze și să-și educe părțile interesate despre AI și capacitățile sale realiste.

Asigurarea calității (QA) și practicile de testare în ML

AI în forma sa actuală este un domeniu relativ nou. Niciodată până acum nu au existat atât de multe aplicații care folosesc învățarea profundă pentru a-și atinge obiectivele. Aceste noi dezvoltări vin cu propriul set de provocări, în special în testare.

Deși este relativ ușor să testați software-ul standard care are un „set de reguli” clar scris de oameni, este mult mai dificil să testați exhaustiv modelele de învățare automată, în special cele construite folosind rețele neuronale. În prezent, cele mai multe modele ML sunt testate de oamenii de știință de date înșiși, dar există puține metode de testare convenite cu echipele standard de QA pentru a se asigura că produsele ML nu eșuează în moduri neașteptate.

Cu noi modalități de a manipula rezultatele modelelor cunoscute, cum ar fi aceste atacuri GAN, testarea completă a modelelor va deveni din ce în ce mai importantă. Aceasta va deveni o prioritate pentru o mulțime de proiecte ML și vom vedea mai multe teste de tip „integrare” pentru modelele ML în anii următori. Pentru majoritatea proiectelor simple, aceasta poate să nu fie în prezent o problemă tangibilă, dar este important să țineți cont de acest lucru dacă construiți un produs ML esențial.

Furtul de modele ML și plagiatul

De când acest articol Wired a fost publicat și lucrarea originală a fost prezentată la conferința USENIX Security din 2016, a devenit evident că există posibilitatea de a plagia un model ML live.

Acest lucru este încă destul de dificil de realizat bine, dar dacă aveți un model care rulează printr-un API disponibil public, este important să fiți conștient de această posibilitate. În teorie, o parte cu acces substanțial la aceasta ar putea să-și antreneze propria rețea pe baza a ta și să-ți copieze eficient capacitatea de predicție.

Acest lucru este încă destul de limitat în ceea ce privește posibilitățile, dar asigurați-vă că lucrați cu echipa dvs. la o strategie de prevenire a posibilelor atacuri dacă aceasta este o preocupare pentru proiectul dvs.

Lipsa de talent

Având în vedere cererea actuală de experți AI de talie mondială, competiția pentru obținerea talentului potrivit este acerbă. De fapt, New York Times raportează că experții AI de clasă mondială pot câștiga până la 1 milion de dolari pe an lucrând pentru marile puteri tehnologice din Silicon Valley. În calitate de PM, în timp ce căutați experți în inteligență artificială care să se alăture echipei dvs., fiți conștient de aceste dinamici, deoarece vă pot afecta ciclurile de angajare, bugetul sau calitatea muncii efectuate.

Acest deficit se extinde dincolo de mințile inovatoare care creează algoritmi mai noi de învățare profundă și este valabil și pentru inginerii de date și oamenii de știință de cea mai bună calitate.

Mulți dintre cei mai talentați oameni participă la competiții de învățare automată, cum ar fi Kaggle, unde pot spera să câștige până la 100.000 USD pentru rezolvarea problemelor dificile de învățare automată. Dacă este dificil să angajați experți în ML la nivel local, este înțelept să căutați soluții în afara casetei, cum ar fi angajarea de contractori specializați de la distanță sau organizarea propriului concurs Kaggle pentru cele mai dificile probleme ML.

Provocări legale și etice

Provocările legale și etice ale inteligenței artificiale în managementul proiectelor sunt duble.

Primul set de provocări provine din datele utilizate pentru antrenarea modelelor ML. Este esențial să înțelegeți de unde provin datele pe care le utilizați și, în special, dacă aveți drepturi de a le utiliza și licențele care vă permit să utilizați datele.

Este întotdeauna important să vă consultați avocații pentru a rezolva astfel de întrebări înainte de a implementa un model instruit pe date pentru care este posibil să nu aveți tipul potrivit de licență. Deoarece acesta este un domeniu relativ nou, multe dintre aceste răspunsuri nu sunt clare, dar PM ar trebui să se asigure că echipele lor folosesc doar seturi de date pe care au dreptul să le folosească.

Iată o listă bună de seturi de date disponibile public pentru antrenamentul algoritmilor ML.

Al doilea set de provocări vine din asigurarea faptului că sistemul dumneavoastră nu dezvoltă o părtinire sistematică. Au existat numeroase cazuri de astfel de probleme în ultimii ani, în care o companie de camere a trebuit să admită că tehnologia sa de recunoaștere a zâmbetului detectează doar persoanele dintr-o anumită rasă, deoarece a fost antrenată doar pe date care conțineau fețe din acea rasă. Un alt exemplu a venit de la o mare companie de software, care a fost nevoită să-și retragă botul Twitter care se învață singur după câteva zile de învățare, deoarece un efort concertat al unui grup de troli de internet a făcut ca acesta să producă insulte rasiale și să repete conspirații sălbatice.

Gradul acestor probleme poate fi minor sau distrugător de proiecte, așa că atunci când dezvoltă sisteme care sunt critice, PM-urile ar trebui să se asigure că iau în considerare astfel de posibilități și le previn cât mai curând posibil.

Bazele bune conduc la structuri puternice

Progresul managementului informațiilor, care duce la AI.

Progresul managementului informațiilor, care duce la AI.

Pe scurt, revoluția iminentă a inteligenței artificiale aduce la iveală un set de proiecte interesante și dinamice, care adesea vin cu un proces de dezvoltare modificat, un arhetip diferit de echipă și noi provocări.

Managerii de proiect tehnici de top au nu numai o bună înțelegere a elementelor de bază ale AI, ci și intuiția pentru dificultatea fiecărei etape a proiectului și ceea ce este cu adevărat posibil să creeze cu echipa lor. Deoarece AI nu este o soluție comercială disponibilă (COTS), chiar și companiile care aleg să achiziționeze anumite produse ML vor trebui totuși să investească în testarea unor lucruri noi și în gestionarea corectă a datelor și a infrastructurii.

Este clar că tipurile de produse software și procesele de creare a acestora se schimbă odată cu apariția AI. Managerii de proiect care sunt capabili să înțeleagă și să execute aceste noi concepte vor fi actori esențiali în crearea produselor de învățare automată ale viitorului.

Materiale suplimentare de la autor

Teorie suplimentară: DL-uri și NN-uri

Pe lângă limbajul mai comun al inteligenței artificiale (AI) și al învățării automate (ML), managerii de proiect pot beneficia de faptul că sunt conștienți de a distinge în continuare învățarea profundă (DL) și rețelele neuronale (NN).

Învățare profundă (DL)

Învățarea profundă face parte dintr-o familie mai largă de metode de învățare automată bazate pe reprezentări ale datelor de învățare, spre deosebire de algoritmii clasici specifici sarcinilor.

Cele mai multe modele moderne de învățare profundă se bazează pe o rețea neuronală artificială, deși pot folosi diverse alte metode.

Rețele neuronale (NN)

Rețelele neuronale sunt structuri matematice conectate, inspirate din punct de vedere biologic, care permit sistemelor AI să învețe din datele care le sunt prezentate.

Ne putem imagina aceste rețele ca milioane de porți mici care se deschid sau se închid, în funcție de datele introduse. Succesul acestor tehnici a fost permis de creșterea puterii de calcul GPU în ultimii ani, permițându-ne să ajustăm rapid mai multe dintre acele „porți mici” din interiorul rețelelor neuronale.

O diagramă a rețelei neuronale

O diagramă a rețelei neuronale

Există mai multe tipuri de rețele neuronale, fiecare însoțită de propriile cazuri de utilizare specifice și de nivelul de complexitate. Este posibil să vedeți termeni precum CNN (rețea neuronală convoluțională) sau RNN (rețea neuronală recurentă) folosiți pentru a descrie diferite tipuri de arhitectură a rețelei neuronale.

Pentru a înțelege mai bine cum arată și funcționează, iată o vizualizare 3D grozavă a modului în care „arata” rețelele neuronale în timp ce sunt active.

Vă interesează să aflați mai multe despre AI?

Dacă, după ce ați citit aceasta, doriți să explorați subiectul puțin mai profund, vă recomand să consultați aceste surse:

Înțelegerea rețelelor neuronale

Dacă doriți să vă scufundați mai adânc în mecanica modului în care funcționează rețelele neuronale, vă sugerez să consultați seria 3Blue1Brown despre rețelele neuronale de pe YouTube. În opinia mea, aceasta este de departe cea mai bună explicație aprofundată a rețelelor neuronale. Este livrat în termeni simpli și nu necesită cunoștințe anterioare.

Rămâneți la curent cu știrile AI

Dacă doriți să fiți la curent cu cele mai noi progrese în tehnologia AI fără să petreceți ore întregi citind lucrări academice, vă recomand următoarele lucrări de două minute. Acest canal oferă actualizări săptămânale de două minute despre cele mai impresionante noi tehnici AI și implementările acestora.

Învățarea elementelor de bază ale dezvoltării ML

Dacă vreți vreodată să vă implicați în cod și aveți niște abilități rudimentare Python, atunci puteți consulta Fast.ai. Cursul lor permite oricui cu abilități de dezvoltare de bază să înceapă să experimenteze și să se joace cu rețelele neuronale.

Bazele învățării automate

Această sugestie este pentru cei care doresc să înceapă de la bun început și să își îndrepte drumul spre vârf în înțelegerea și implementarea învățării automate.

Creat de acum legendarul Andrew Ng, care a lansat Coursera cu acest curs, necesită o investiție substanțială de timp - cel puțin șase luni - dar poate fi o modalitate extrem de productivă de a petrece o sâmbătă.


Notă: definițiile termenilor cheie au fost adaptate din Wikipedia.