Filme porno

Categorii

Advertising

Invatare automata si transparenta

Matt Sims

14 mai 2018

·

4

min citit

Aici, la Synapse, ne angajam nu numai sa construim produse excelente, ci si produse corecte si transparente. In acest scop, lucram din greu pentru a ne asigura ca modelele noastre de clasificare sunt lipsite de prejudecati sociale si favorizeaza incluziunea in locul excluderii.

Este de la sine inteles ca intrebarile etice pe care oamenii ajung dificil sa ajunga la un consens nu vor putea fi rezolvate cu usurinta de modelele de invatare automata. Dificultatea implicata, insa, nu este un motiv pentru a te feri de a cauta solutii tehnice. De fapt, aceasta dificultate indica cat de presant si esential este ca sunt dezvoltate mai multe cercetari si aplicatii mai directe.

Desi solutiile noastre nu pot fi intotdeauna perfecte, a fi transparent cu privire la ceea ce fac modelele noastre si de ce le fac este un prim pas necesar.

Array

In acest proces, va putem ajuta sa simplificam complexitatea si sa explicam tot ceea ce construim.

In postarile viitoare, vom intra in mai multe detalii despre abordarile tehnice pe care le implementam pentru a atinge acest obiectiv. Intre timp, aceasta postare ofera o scurta prezentare generala a unor biblioteci recente si teorii pe care le consideram deosebit de promitatoare.

Cartea online a lui Christoph Molnar ofera o prezentare utila a abordarilor actuale pentru explicarea modelelor de invatare automata a cutiei negre. O serie de biblioteci – dintre care majoritatea sunt open-source – au fost, de asemenea, lansate in ultimii ani si tind sa aiba implementari relativ simple pentru a explica predictiile modelelor deja instruite.

LIME (Local Interpretable Model-Agnostic Explanations), este probabil cea mai utilizata biblioteca de interpretabilitate. Dupa cum sugereaza si numele, este model-agnostic, ceea ce inseamna ca poate fi folosit pe orice, de la un model de regresie polinomiala la o retea neuronala profunda.

Abordarea LIME este de a perturba majoritatea caracteristicilor unei singure instante de predictie – in esenta, reducand aceste caracteristici – si apoi de a testa iesirea rezultata. Ruland acest proces in mod repetat, LIME este capabil sa determine o limita de decizie liniara pentru fiecare caracteristica, indicand importanta sa predictiva (de exemplu, ce pixeli au contribuit cel mai mult la clasificarea unei anumite imagini). Lucrarea asociata ofera o discutie mai riguroasa a abordarii, desi aceasta postare a autorilor este probabil cel mai bun loc pentru a incepe.

Skater, o alta biblioteca open source, incorporeaza interpretarile locale ale LIME, incluzand totodata explicatii globale. De exemplu, exista functionalitate incorporata pentru producerea de grafice marginale (care arata relatia dintre diferite perechi de variabile) si grafice de dependenta partiala (care arata relatia dintre fiecare variabila si rezultatul modelului).

H2O, o platforma open-source de invatare automata, include diverse metode de interpretabilitate a modelului impreuna cu implementarile sale ML mai generale. Autorii ofera exemple si documentatie pentru abordari precum modelele surogat ale arborelui decizional, analiza sensibilitatii si constrangerile monotonice (utile pentru cazurile in care doriti sa va asigurati ca modificarile unei variabile specifice duc la o crestere sau scadere continua a productiei modelului). De asemenea, au scris un post care descrie diferite metode de interpretabilitate in profunzime.

SHAP (SHapley Additive exPlanations), unifica mai multe metode diferite de interpretabilitate (inclusiv LIME) intr-o singura abordare. Face acest lucru definind matematic o clasa de metode de atribuire a caracteristicilor aditive si demonstreaza ca sase metode diferite de interpretabilitate utilizate in prezent se incadreaza in aceasta clasa. Consultati hartia asociata pentru mai multe detalii.

Invatarea profunda bayesiana a aparut ca o alta modalitate de a obtine mai multe informatii despre modelele de cutii negre. In loc sa explice importanta caracteristicilor individuale pentru predictii, o abordare bayesiana permite sa se masoare cat de increzator este un model de invatare profunda despre predictiile sale. Acest lucru este util pe mai multe fronturi, dar un rezultat deosebit de benefic este acela ca predictiile care se produc cu un grad ridicat de incertitudine pot fi puse deoparte pentru o analiza manuala mai atenta de catre o fiinta umana.

O serie de limbaje de programare probabilistice au fost lansate in ultimii cativa ani, incepand cu Stan in 2012. De atunci au fost PyMC3 (care ruleaza Theano pe backend), Edward (care ruleaza pe TensorFlow) si Pyro (lansat chiar in noiembrie anul trecut de Laboratoarele AI ale Uber si ruleaza pe Pytorch).

Pyro a fost conceput special pentru aplicatii de invatare profunda, iar documentatia Edward ofera o serie de tutoriale si videoclipuri pentru invatarea profunda bayesiana, inclusiv un exemplu de utilizare a abandonului pentru a aproxima probabilitatile bayesiene. O lucrare cheie publicata initial in 2015 demonstreaza ca abandonul, o metoda standard de regularizare a modelelor de invatare profunda pentru a preveni supraadaptarea, converge la un proces gaussian si, prin urmare, poate fi utilizat pentru a masura increderea modelului.

Conferintele anuale, cum ar fi FAT * (Conferinta privind corectitudinea, responsabilitatea si transparenta), au contribuit la atragerea unei atentii tot mai mari asupra necesitatii de a construi modele mai echitabile, atragand in acelasi timp cercetatori, cercetatori si practicieni din diferite domenii in conversatie. O serie de biblioteci de echitate open-source au fost, de asemenea, lansate in ultimii ani, desi cele mai multe dintre ele sunt inca in faza incipienta.

Desi nu exista inca un consens cu privire la masurile care sunt cele mai favorabile pentru a produce rezultate corecte (si, desigur, depinde mult de modul in care definim corectitudinea in primul rand), au fost propuse o serie de criterii si definitii convingatoare. Masurile de echitate, reflectiile asupra corectitudinii cantitative si combaterea discriminarii cu o invatare mai inteligenta a masinilor ofera toate resurse utile pentru a incepe sa ne gandim cum sa abordam cel mai bine problema dificila, dar esentiala, despre cum sa construim modele corecte.

Video Description:

Matt Sims14 mai 2018· 4 min cititAici, la Synapse, ne angajam nu numai sa construim produse excelente, ci si produse corecte si transparente. In acest scop, lucram din greu pentru a ne asigura ca modelele noastre de clasificare sunt lipsite de prejudecati sociale si favorizeaza incluziunea in locul excluderii.Este de la sine inteles ca intrebarile etice pe care oamenii ajung dificil sa ajunga la un consens nu vor putea fi rezolvate cu usurinta de modelele de invatare automata. Dificultatea implicata, insa, nu este un motiv pentru a te feri de a cauta solutii tehnice. De fapt, aceasta dificultate indica cat de presant si esential este ca sunt dezvoltate mai multe cercetari si aplicatii mai directe.Desi solutiile noastre nu pot fi intotdeauna perfecte, a fi transparent cu privire la ceea ce fac modelele noastre si de ce le fac este un prim pas necesar. Array In acest proces, va putem ajuta sa simplificam complexitatea si sa explicam tot ceea ce construim.In postarile viitoare, vom intra in mai multe detalii despre abordarile tehnice pe care le implementam pentru a atinge acest obiectiv. Intre timp, aceasta postare ofera o scurta prezentare generala a unor biblioteci recente si teorii pe care le consideram deosebit de promitatoare.Cartea online a lui Christoph Molnar ofera o prezentare utila a abordarilor actuale pentru explicarea modelelor de invatare automata a cutiei negre. O serie de biblioteci - dintre care majoritatea sunt open-source - au fost, de asemenea, lansate in ultimii ani si tind sa aiba implementari relativ simple pentru a explica predictiile modelelor deja instruite. webchoc porno iflypaws.com porno alpha france teamsmith.com actrice porno tukif paymyelectricbill.net ingrid chauvin porno poemonline.com mom and son porno newsocietyfund.com porno lesbien français armoureckrich.org teens porno category10.com vagin porno www.syslh.com dream porno movies magnetwords.com actrice porno italienne www.benz-web.com karine le marchand porno asknclawyer.com 69 porno retinareadywebsites.com mario porno ola-cathedral.org porno homo www.lawtracker.com putain porno 1800nobutts.info gyneco porno nou-rau.uem.br porno travesti orientaltrades.net porno français mature www.producerschool.com porno beau pere nopainspray.com porno animal networksolutionsblows.com LIME (Local Interpretable Model-Agnostic Explanations), este probabil cea mai utilizata biblioteca de interpretabilitate. Dupa cum sugereaza si numele, este model-agnostic, ceea ce inseamna ca poate fi folosit pe orice, de la un model de regresie polinomiala la o retea neuronala profunda.Abordarea LIME este de a perturba majoritatea caracteristicilor unei singure instante de predictie - in esenta, reducand aceste caracteristici - si apoi de a testa iesirea rezultata. Ruland acest proces in mod repetat, LIME este capabil sa determine o limita de decizie liniara pentru fiecare caracteristica, indicand importanta sa predictiva (de exemplu, ce pixeli au contribuit cel mai mult la clasificarea unei anumite imagini). Lucrarea asociata ofera o discutie mai riguroasa a abordarii, desi aceasta postare a autorilor este probabil cel mai bun loc pentru a incepe.Skater, o alta biblioteca open source, incorporeaza interpretarile locale ale LIME, incluzand totodata explicatii globale. De exemplu, exista functionalitate incorporata pentru producerea de grafice marginale (care arata relatia dintre diferite perechi de variabile) si grafice de dependenta partiala (care arata relatia dintre fiecare variabila si rezultatul modelului).H2O, o platforma open-source de invatare automata, include diverse metode de interpretabilitate a modelului impreuna cu implementarile sale ML mai generale. Autorii ofera exemple si documentatie pentru abordari precum modelele surogat ale arborelui decizional, analiza sensibilitatii si constrangerile monotonice (utile pentru cazurile in care doriti sa va asigurati ca modificarile unei variabile specifice duc la o crestere sau scadere continua a productiei modelului). De asemenea, au scris un post care descrie diferite metode de interpretabilitate in profunzime.SHAP (SHapley Additive exPlanations), unifica mai multe metode diferite de interpretabilitate (inclusiv LIME) intr-o singura abordare. Face acest lucru definind matematic o clasa de metode de atribuire a caracteristicilor aditive si demonstreaza ca sase metode diferite de interpretabilitate utilizate in prezent se incadreaza in aceasta clasa. Consultati hartia asociata pentru mai multe detalii.Invatarea profunda bayesiana a aparut ca o alta modalitate de a obtine mai multe informatii despre modelele de cutii negre. In loc sa explice importanta caracteristicilor individuale pentru predictii, o abordare bayesiana permite sa se masoare cat de increzator este un model de invatare profunda despre predictiile sale. Acest lucru este util pe mai multe fronturi, dar un rezultat deosebit de benefic este acela ca predictiile care se produc cu un grad ridicat de incertitudine pot fi puse deoparte pentru o analiza manuala mai atenta de catre o fiinta umana.O serie de limbaje de programare probabilistice au fost lansate in ultimii cativa ani, incepand cu Stan in 2012. De atunci au fost PyMC3 (care ruleaza Theano pe backend), Edward (care ruleaza pe TensorFlow) si Pyro (lansat chiar in noiembrie anul trecut de Laboratoarele AI ale Uber si ruleaza pe Pytorch).Pyro a fost conceput special pentru aplicatii de invatare profunda, iar documentatia Edward ofera o serie de tutoriale si videoclipuri pentru invatarea profunda bayesiana, inclusiv un exemplu de utilizare a abandonului pentru a aproxima probabilitatile bayesiene. O lucrare cheie publicata initial in 2015 demonstreaza ca abandonul, o metoda standard de regularizare a modelelor de invatare profunda pentru a preveni supraadaptarea, converge la un proces gaussian si, prin urmare, poate fi utilizat pentru a masura increderea modelului.Conferintele anuale, cum ar fi FAT * (Conferinta privind corectitudinea, responsabilitatea si transparenta), au contribuit la atragerea unei atentii tot mai mari asupra necesitatii de a construi modele mai echitabile, atragand in acelasi timp cercetatori, cercetatori si practicieni din diferite domenii in conversatie. O serie de biblioteci de echitate open-source au fost, de asemenea, lansate in ultimii ani, desi cele mai multe dintre ele sunt inca in faza incipienta.Desi nu exista inca un consens cu privire la masurile care sunt cele mai favorabile pentru a produce rezultate corecte (si, desigur, depinde mult de modul in care definim corectitudinea in primul rand), au fost propuse o serie de criterii si definitii convingatoare. Masurile de echitate, reflectiile asupra corectitudinii cantitative si combaterea discriminarii cu o invatare mai inteligenta a masinilor ofera toate resurse utile pentru a incepe sa ne gandim cum sa abordam cel mai bine problema dificila, dar esentiala, despre cum sa construim modele corecte.

Categorie:
Taguri:
Data adaugarii:

Filme porno noi