Press "Enter" to skip to content

GOTO 2016 • Consequences of an Insightful Algorithm • Carina C. Zona


Mi piace che dobbiamo spremere in a
credito per Sasha Londra che ha fatto di fatto
ho trovato donne che codificano così è davvero
cool Diana ha dimenticato di ringraziare una persona così
Credo che dovrò farlo grazie
Sei Diana
va bene, anna mi ha detto che sono Karina Sedona
Sono il fondatore di richiamare le donne e io
Sono evangelista sviluppatore per sarebbe
insieme mi puoi trovare più o meno
ovunque su internet come CC zona questo
talk è un kit di strumenti per la codifica empatica
e stiamo andando a scavare in alcuni
esempi davvero specifici di acritici
programmazione e risultati davvero dolorosi
che viene dal fare le cose in modi simili
erano stati ben nove, ma destinati
davvero andare fuori strada e perché quelli sono
alcune aree davvero sensibili che voglio
inizia con un avviso di contenuto perché
avremo a che fare con una varietà
di soggetti qui non ce ne sono certamente
tipico di una conferenza tecnologica così
aborto sessuale vergognoso di sterilità
bullismo stalking dolore segregazione PTSD
la profilazione bianca e la supremazia razziale
l’olocausto dice solo che sai buttarlo
uno in là se preferiresti non finire
la tua giornata a pensare a queste cose
è completamente bene andare e divertirsi a
bevanda in questo momento non lo sarò
insultato e penso di averne cura
te stesso è davvero una buona cosa
e questi non sono l’intero punto di
le chiacchiere ma sono le materie che faranno
vieni a iniziare in circa 10-15 minuti
hai un po ‘di tempo per pensarci
che qui andiamo ad imporre gli algoritmi
conseguenze sulle persone in ogni momento
siamo in grado di estrarre davvero notevolmente
approfondimenti precisi su un individuo così
c’è questa domanda che dobbiamo fare
chiedere abbiamo il diritto di sapere cosa loro
non ha consentito di condividere anche quando loro
abbiamo condiviso volentieri i dati che ci guidano
lì e come ci attenuiamo
conseguenze non intenzionali di questo quando noi
parlare della parola algoritmi di solito
stiamo pensando in termini di matematica
e modelli informatici di destra
istruzioni articolate in codice o
formule matematiche ma questo non è il
solo così puoi pensarci bene
come se il nostro bubble amico fosse giusto
e questo è il modo tipico che facciamo
pensa agli algoritmi ma c’è anche
quindi algoritmi come un concetto più generico
sono solo un insieme passo-passo di
istruzioni per arrivare in modo prevedibile
un risultato e un risultato che è tutto così per
esempio nella vita di tutti i giorni abbiamo tutto
tipi di esempi di senatori algoritmici
schemi di istruzioni articolati in
modi diversi, ad esempio, una ricetta è
un algoritmo di direzioni su una mappa è un
algoritmo che rende hirsch un modello e io
non voglio mai sapere del montaggio
essere troppo difficile da leggere gli algoritmi
che stiamo andando a guardare oggi sono
incentrato sulla resa esaustiva di
i nostri modelli consci e inconsci
in insiemi di dati e algoritmi questo è
il nucleo dell’analisi predittiva profonda
l’apprendimento è qualcosa di cui abbiamo sentito parlare
in alcuni altri discorsi questa settimana è il
nuova hotness in questo momento ovviamente da
dati di data mining e in sostanza è possibile
pensalo come un algoritmo per il digiuno
reti neurali artificiali e trainabili
è un ramo del machine learning che
in realtà è stato in giro per il mondo accademico
decenni almeno dagli anni ’80 ma come
quanto davvero essere in grado di utilizzarlo in
particolarmente la produzione su larga scala
davvero solo teorico fino a a
un paio di anni fa e c’è stato
rapido cambiamento a causa di quelli
scoperte in questo momento sta diventando
possibile per l’industria estrarre
approfondimenti notevolmente più sofisticati
di qualsiasi cosa si possa immaginare anche quattro anni
fa fuori dalla vastità dei big data in
produzione su scala oggi in un tale
ampia varietà di applicazioni, ecco qui
solo un modo davvero generico di pensare
il processo di base che hai inserito
sono una specie di raccolta di dati che
potrebbero essere parole immagini suoni oggetti
anche una sorta di estrazione e poi
questo è un addestramento di dati che non ha nemmeno
devono essere etichettati o
categorizzato come di solito ci pensiamo
giusto dobbiamo segnare tutto questo
come se fosse un cane che è umano
un suono a cui non potresti semplicemente lanciare dati
e poi
l’esecuzione è solo eseguendo una serie di
funziona ripetutamente in una scatola nera e
quella scatola di parole frase scatola nera è qualcosa
torneremo a e poi
le uscite sono solo una previsione di
proprietà che saranno utili per
disegnando intuizioni su un futuro simile
input e questo è davvero importante
il set di dati di addestramento deve essere simile a
il set di dati di produzione, se non lo è
si sta andando ad avere subito sottili
pregiudizi che cambieranno l’ intenzione
e risultati quindi torneremo
a quello più tardi così tanto l’apprendimento profondo
si basa su reti neurali artificiali
la loro scoperta automatizzata di modelli
all’interno di questo set di dati di allenamento e poi
applica le scoperte per disegnarle
intuizioni sui dati futuri e per i nostri
industria ciò che significa è che è
presentandoci con scoperte per come
ci riferiamo anche ai big data e al
cose che possiamo fare con esso e io
è eccitante ma nota cosa significa
anche la sua premessa su una scatola nera il
la rete neurale è stata perforata a decine
di migliaia o addirittura centinaia di
migliaia di fattori incredibilmente sottili
che crede abbia un valore predittivo
queste non sono cose da umani che noi
si sarebbe consapevolmente notato anche da solo
dì questo e quelli degli altri sette
mille cose sono ciò che rende un
previsione qui quindi questa è tecnologia
sta guidando importanti progressi in così tanti
aree comprese le medicine farmaceutiche
ricerca nel testo di rilevamento del movimento
voce di identificazione del volto di predizione
attivazione come sai di tipo Siri
analisi del sentimento di individuazione delle frodi
traduzioni riconoscimento di contenuti video
anche auto che guidano da soli come Google
Google Auto e Tesla stanno usando questo
roba in questo momento, quindi oggi stiamo andando a
stai guardando solo alcuni concreti
esempi di quelli compresi quelli che usano
previsione comportamentale di targeting degli annunci
immagine dei sistemi di raccomandazione
classificazione e riconoscimento facciale
ma prima di arrivare a una specie di quelli
quelli veramente pratici che voglio iniziare
con un esempio bizzarro questo è Mario
è una rete neurale artificiale che
insegna se stesso a giocare al mondo super mario
inizia senza alcun indizio di sorta
non è stato dato regole per un gioco esso
semplicemente stato presentato con il
possibilità di alterare valori e avvisi
che a volte qualcosa accade come a
risultato e così in una serie di iterazioni
chiamato strati continua a girare
indietro provando cose nuove e notando
modelli e ogni volta notando di più e
modelli più sottili fino alla fine di
24 ore può giocare il gioco che ha
ha imparato da solo tutto da quello cumulativo
osservazione e nient’altro così è
imparato quel movimento lo ha imparato
gameplay puramente da solo e poi è
usando quel diritto per venire
intuizioni non regole ma previsioni così
avendo guardato un gioco giochiamo uno
di per sé sembra qualcosa come il bingo
e si chiama data mining fallire
sembra che tu sia pronto per giocare
sei pronto per giocare
e oggi so di capire un po ‘
grazie a tutti perspicace
gli algoritmi sono pieni di insidie, quindi è così
osservando gli studi di casi che siamo
in grado di esplorare meglio alcune delle cose
questo è su questo tabellone alcuni di quelli
giocheremo con il bersaglio
è basato essenzialmente su un grande magazzino
negli Stati Uniti, tu sai qualcosa
potresti aver bisogno di casa tua
e qualche volta anche per il tuo lavoro
tutto dalla spesa al settore automobilistico
parti e abbigliamento e famiglia
forniture e pistole degno dell’America nel
settore della vendita al dettaglio nel complesso
trimestre di gravidanza è chiamato il
Santo Graal e la ragione per cui è chiamato
questo perché la gravidanza è un momento in
tempo uno dei pochi momenti nel nostro
vita in cui tutte le nostre spese
le abitudini della nostra lealtà sono la marca
tutte le selezioni vengono nuovamente messe in palio
tutto ciò che ci è stato insegnato ogni
modello e abitudine che abbiamo è
gioco improvvisamente equo per i rivenditori e così via
ovviamente sono molto interessati a
determinare quando qualcuno è incinta
ma devi competere con
tutti gli altri lo stanno facendo, se puoi
trova quella persona nel suo secondo
trimestre piuttosto che quando sta diventando
ovvio nel loro 3 ° allora tu sei il
concorrenza che può bloccarlo
cliente prima di qualsiasi altro rivenditore
ha un’opportunità quindi, ovviamente, obiettivo
un giorno alcuni commercianti sono andati oltre
uno dei loro programmatori e chiedere a
domanda davvero semplice se volessimo
capire se un cliente è incinta
anche se lei non volesse che noi sappiamo potrebbe
lo fai, quindi fai una pausa e pensa
un momento cosa faresti come faresti
risolvere quel problema quali sarebbero i fattori
cerchi di venire con quello
previsione è un problema interessante
è una sfida e abbiamo amato la sfida
così ha accettato la sfida e in effetti
ha fatto un po ‘affidabile
algoritmo per rilevare la gravidanza in
quel secondo trimestre prima del
il cliente lo aveva rivelato così loro
iniziato a inviare volantini con coupon
per maternità mirata esattamente a questi
persone che sembrano fare davvero
bene fino a quando un giorno un uomo entrò in
un negozio e ha chiesto di vedere il
il manager e il manager sono usciti e l’uomo
ha detto come ti permetti di inviare questo al mio
figlia adolescente, cosa stai facendo?
stai cercando di dirle che va bene
sesso stai cercando di dirle di ottenere
incinta il gestore non ha effettivamente
avere la responsabilità di una catena nazionale
dei negozi e della loro pubblicità ma lui
scusarmi comunque e l’uomo è andato via
il giorno dopo l’uomo ritorna
chiede di rivedere il manager e il
l’uomo dice che mi dispiace tanto di averne una
conversazione con mia figlia ieri sera
e lei è incinta, è divertente però
questo è un momento nella vita di una persona
è grande e lo annuncia in particolare
grande quello che le hanno rubato è lei
cronometrando la sua opportunità di avere una calma
conversazione con un genitore al posto di
uno che è arrabbiato potendo scegliere
quando ciò accade e come un rivenditore
cercando di andare avanti rispetto alla concorrenza
ha rubato uno dei momenti più importanti
della sua vita quindi non ne hanno altri
feedback simile a questo obiettivo deciso
spostare la sua strategia un po ‘il nuovo a
la strategia è quella di inviare allo stesso
la gente un volantino pieno di coupon ma a
divano in cose completamente indipendenti
quindi non sanno che sono stati
mirato per la pubblicità di maternità così
sai che il tuo annuncio per roba per bambini potrebbe essere
avvolto con alcuni annunci per
o Colonia e conoscete la cura dei pneumatici
qualunque cosa sia e la logica per
questo è finchè una donna incinta
pensa che non sia stata spiata tanto a lungo
come noi non la spaventiamo, funziona così
un algoritmo che interrompe la vita di una persona
in modi profondi ed è questo l’etico
posizione che vogliamo prendere è che è
ok per sorvegliare qualcuno e distorcere
la loro vita finché non lo sanno
chi lo sta facendo con il tasto di scatto
fondamentalmente vende vari prodotti stampati
carte giuste foto ecc. a un certo punto loro
manda questo messaggio dicendo alle persone
sai come un nuovo genitore hey ora
hai avuto un bambino su tutti
la tua vita apparentemente è una carta che spedisci
grazie a tutti gli annunci di nascita delle carte
quell’altra roba che alcune persone non erano
in realtà il pubblico di destinazione e alcuni di
quelle persone ridevano sai come ciao
pensi così eh non è stato divertente per
tutti però grazie shutterfly per
le congratulazioni per il mio nuovo pacchetto di
gioia Sono orribilmente sterile ma lo sono
adottando un gattino così ho perso un bambino
Novembre a chi sarebbe dovuto questo
settimana è stato come colpire un muro dappertutto
di nuovo il brivido vola a rispondere a questo
tipo di critica era che l’intento di
l’email era indirizzare i clienti che hanno
recentemente ho avuto un bambino si, lo sappiamo
intento non è questo il punto
Mark Zuckerberg è diventato un padre lo scorso
anno e lui e sua moglie nell’annunciare
quella nascita imminente con ovviamente grande
eccitazione ha anche rivelato una serie di
aborti che lo avevano preceduto e lui
hai scritto che ti senti così speranzoso quando impari
hai intenzione di avere un figlio che inizi
immaginando come diventeranno e
sognando le speranze per il loro futuro
inizia a fare progetti e poi se ne sono andati
è un’esperienza solitaria facebook
parlando di Facebook probabilmente la maggior parte di noi
è familiare con l’ anno in rassegna è
stato in giro per un certo numero di anni
Dicembre a volte è stato algoritmico
a volte è stato più curato ma in
in qualche modo ti presento con hey dentro
l’anno scorso ecco alcune cose da fare
ricorda cosa non riescono a prendere in
conto di questo è che le nostre vite sono
le cose che cambiano costantemente succedono come
cambiamenti di posti di lavoro e relazioni e
il modo in cui ci siamo sentiti su di loro a un certo punto
nel tempo potrebbe non essere più come ci sentiamo
su di loro ora quello che era qualcosa una volta
gioioso potrebbe essere diventato molto diverso
per noi emotivamente lungo la strada Eric
Meyer ha coniato il termine involontario
crudeltà algoritmica e lui lo definisce
come risultato del codice che funziona nel
la stragrande maggioranza dei casi ma
non tiene conto di altri usi
i casi, quindi, perché è lui ad essere l’unico
chi compone questo nome perché è uno
delle persone che è successo a questo è un
foto di mia figlia di sei anni che
è morto chi è morto quest’anno l’anno di
aggiungi continua a venire nel mio feed
ruotando attraverso diversi divertimento e
sfondi favolosi come se celebrassero
la sua morte e non c’è un modo ovvio per
smettila, Eric ci invita ad aumentare
consapevolezza e considerazione per il
le modalità fallimento sono gli scenari peggiori
i casi limite ed è quello che sono
cercando di fare qui oggi e spero che
porterai avanti agli altri così con
questo in mente qui è il mio primo
raccomandazione per tutti noi di prendere per
cuore essere umile non possiamo farlo
emozioni interstatali soggettività privata
non ancora, comunque, erano presenti i post di Eric
Dicembre 2014 e ha raccolto a
tremenda quantità di attenzione non solo
nel settore ma anche in
media mainstream come fa Facebook o
chiunque altro evita di accecare qualcuno
con cose spiacevoli ogni anno questo è
qualcosa ovviamente due anni fa loro
deve aver dato un sacco di pensiero a loro
certamente dovevo rispondere molto
domande e così tre mesi dopo
ha fatto un cambiamento hanno introdotto un nuovo
funzione chiamata in questo giorno e fondamentalmente
solo per ricordarti di cose divertenti e banali
cinque anni fa sei diventato facebook
amici con una persona qui due anni fa
sei andato a fare escursioni un anno fa
somma ed è accompagnato da questo tu
conosco un messaggio davvero bello a cui teniamo
l’abbiamo capito questa volta che lo sai
questo bel ricordo di tre anni fa
che pensiamo che lo farai davvero
come un cucciolo a cui non piace un cucciolo
sai che non è un gatto, ma dai, è a
cucciolo in questo giorno l’hai postato davvero
immagine adorabile grazie Facebook per
raccogliendo oggi per colpirmi con questo stupido
caratteristica e mi ricorda che il mio cane è morto
tre anni fa a volte Facebook è acceso
questo giorno mi manda i ricordi dall’alto
la scuola e si sta innescando non l’ho fatto
Godetevi la scuola superiore e ho bisogno di dimenticare
non puoi decidere quali parti di
il mio passato mi ritorna fresco nella mente e
quali parti mi allontano dal cazzo
questo ha un impatto per le persone a cui stanno a cuore
dobbiamo imparare dagli errori di Facebook
ho scelto di prendere quelle lezioni e fare il
stessa cosa dobbiamo imparare dal nostro
errori e dobbiamo imparare da
altri dobbiamo decidere che innocuo
e dannoso non sono le conseguenze
bilanciare Fitbit comunemente noto
tracker di attività giusta dimensione sociale
sai competere con i tuoi amici
quante miglia ti spingono oh scusa metri
giusto americano sai quanto peso
stai perdendo tutto quel genere di cose
proprio quello che Fitbit ha iniziato anche lui
aveva un’altra cosa che aveva un sex tracker
un altro per competere sulla differenza
è stato predefinito pubblico
sì , stai leggendo da vicino non sei io
Sono anche un educatore sessuale e tu sai che io sono
entrambi sono davvero felici per te e davvero
pubblico interessato questo è stato un fallimento di
pensa ai dati stessi che trattano tutti
i dati sono uguali se vuoi competere
una cosa sicuramente vuoi competere
ogni punto dati possibile che dobbiamo essere
pensando al contesto e dobbiamo essere
pensando a quali dati stavano raccogliendo
e il significato personale ne ha quattro
persone e sicuramente a pensare
su quali dati sono privati ​​se lo sei
applicare lo stesso algoritmo ad ogni bit
di dati c’è già un problema così
la maggior parte di noi ha un qualche tipo di interno
gli strumenti operativi come quelli sono inevitabili
potrebbe essere per il monitoraggio delle prestazioni
messa a punto delle metriche aziendali qualunque essa sia
Uber’s è chiamato God view in their
umiltà infinita uber non ha limitato
accesso per aggiungere solo min o limitato
solo per uso operativo i dipendenti potrebbero
identificare liberamente qualsiasi passeggero nel
sistema monitora i movimenti di quella persona
anche i conducenti avevano accesso a Dio
visualizzare i record anche per un candidato di lavoro
benvenuto per accedere a questi privati
record individuali nel frattempo manager
sentiti libero di abusare di Dio per vedere
scopi completamente non operativi tali
dato che non sto scherzando con le celebrità
cavalca in tempo reale e dimostrandolo
intrattenimento per feste d’ufficio questi
gli algoritmi sono stati creati per legittimi
ragioni ma gli algoritmi possono essere abusati e
sta a fare in modo che sia a noi
assicurati che l’abuso non sia possibile e
quello che stiamo facendo che siamo
verificando per cosa è questo
così bene, il cupido è un appuntamento e loro
usato per essere davvero nei loro parametri e
loro blog su di te sanno tutte le cose
che stavano imparando dal guardare
dati di tendenza aggregati e quel blog
davvero era concentrato sulla condivisione di intuizioni
in modo semplice che come utente di OkCupid
potresti usare il sito per raggiungere il
obiettivo sei lì per il momento fino ad oggi
meglio datare più efficacemente uber
anche usato per blog sui loro dati a
la differenza cruciale sta nel come loro
si avvicinò perché non si trattava
migliorare l’esperienza dei clienti di uber
servizio di fatto se si guarda molto da vicino
uber può e tiene traccia della tua sola notte
questo sta semplicemente invadendo le persone
privacy per nessun motivo operativo no
ragione aziendale legittima a tutti ma
puramente per il gusto di giudicare e
shaming questo non è prevedibile
conseguenza della registrazione per a
passaggi auto adwords account Google in modo
diversi anni fa ricercatore ad Harvard
stava cercando su google il suo nome e lei era una
premio per vedere che quando ha fatto così
c’era una pubblicità sul lato del
risultati che hanno detto qualcosa l’ effetto
di ti piacerebbe vedere Latonya
La prigione di Sweeney registra il suo arresto
registra come qualcuno che non ha un
record di riposo ha trovato che interessante
ed era curioso di vedere perché ciò accadesse
e così ha fatto uno studio in cui lì
erano due insiemi di nomi una volta altamente
correlato con i bianchi è molto
correlato con le persone di colore e diviso
loro per genere e li hanno assegnati al
nomi nomi di veri accademici e
poi Google ha fatto e ha visto quali parole dell’annuncio
sono stati visualizzati un nome identificativo nero
era il venticinque percento più probabile
portare a un annuncio che implicava un arresto
registrare annunci come questi l’algoritmo di
AdWords se ricordi si concentra esclusivamente su
predire cosa farà clic su di esso non ha
conoscenza del mondo reale che non lo è
il punto in cui viene ingannato quel che sarà
clicca su
e per motivarci a cliccare sul reale
il mondo è assolutamente irrilevante e
basa tale predizione su ciò che sa
su di noi e da cosa viene osservato
altri in aggregato quindi quello che vediamo qui
è il nostro pregiudizio collettivo essere entrambi
riflettono su di noi e ci rafforzano
i dati sono generati da persone che non lo sono
obiettivo è limitato dal nostro tunnel
visione e replica i nostri difetti esso
riecheggia le nostre percezioni Twitter
jo-ann McNeil ha coniato il termine accidentale
run-in algoritmici e come puoi indovinare
è stata ispirata dalla definizione di Eric
non stava dando una definizione formale
ma puoi sommariamente riassumere questo come
classificare le persone classiche come simili
dove i suggerimenti disattenti creano scenari
che sono più difficili da controllare e preparare
per là in una varietà di modi diversi
che puoi vedere questo manifest per
istanza essere intrappolati da una somiglianza
algoritmo che è determinato ad associare
tu con qualcuno che è simile in alcuni
rispetto ma chi non vorresti mai veramente
dare il permesso cosciente di associarsi
cosa tu con così per esempio essere
associato al suprematista bianco
vera storia, ce n’è più di una
persona il filo alton di nome william
johnson linkedin ha questo davvero elegante
funzione di notizie in cui appare e
annuncia a tutti i tuoi link ecco a
articolo di notizie di cui crediamo
non ti piacerebbe congratularmi con me
william johnson sul tuo grande nuovo
successo come un suprematista bianco se tu
guarda molto attentamente nel piccolo grigio
la stampa è una persona sbagliata, l’ onere è acceso
in ritardo intercettate il loro errore e
correggilo e quello che ha imparato è questo
ci vuole un po ‘e non è nemmeno cliccarci sopra
e va via e, naturalmente, il
l’annuncio è già andato a tutti
quelle persone non so nemmeno cosa
per caratterizzare questo come penso hubris
è il minimo che possiamo chiamare questo un
il run-in algoritmico accidentale è un tipo
di falsi positivi, spesso quella falsità e
il danno non può essere facilmente rilevato
algoritmicamente se sei inseguito da a
l’ex collaboratore Twitter potrebbe rinforzare
questa connessione algoritmicamente la boxe
tu in un passato che tu
cercando di passare dalla tua affinità
segna dove quel molestatore cresce
sempre più in alto con ogni persona che
segue a raccomandazione di Twitter che
persona questo è un problema comune che
le persone hanno riferito cose come le loro
ex che non vogliono più a che fare con
e il fatto che li abbiano avuti
i cerchi sovrapposti diventano un cerchio
che sei intrappolato e diventa il
persona che tu almeno personalmente
raccomandare è la persona che è Twitter
più determinato a raccomandare e notare
è molto simile ad AdWords che queste cose
solo ci stiamo davvero raddoppiando
falsa certezza ogni volta una terza parte
agisce che non hai il controllo
persone a caso senza alcuna conoscenza del
l’impatto sono quelli che involontariamente
avere questo avviso di controllo che piace
L’esperienza di Eric non ha scampo
Flickr e google foto facciale
riconoscimento
al suo meglio, questo sono io le foto
e tu sai cosa stava iniziando
era un po ‘dilagante e tu lo sai come noi
visto lungo la strada un sacco di umoristico
errori, giusto ci è voluto un po ‘per questo
iniziare a stare bene e questo ovviamente
è un errore davvero innocuo di nessuno
andando a essere danneggiato dal fatto che
il loro biscotto è stato mal giudicato un falso
positivo come questo è davvero facile
ridacchiare qui è un altro tipo di quello
stessa categoria sai che questo è un sito
da un paio di anni fa chiamata Microsoft
che quanti anni ha dotnet e sta usando in profondità
imparare a prendere solo il riconoscimento facciale
a voi conoscete il prossimo livello
disegnare intuizioni basate su una faccia
età e sesso quindi li assegna
tag che puoi vedere qui e notare
questa è la stessa persona che apparentemente
è contemporaneamente un sacco di secoli
e i sessi non hanno abbastanza generi
ma hey è inevitabile che come questi
le tecnologie stanno crescendo e progredendo
che ce ne saranno sempre
errori lungo la strada giusto questo è
accettato e e questi sono il tipo di
sbagli che quando lo guardi è così
è più intrigante proprio come ha fatto
viene con quella scelta particolare
quindi piuttosto che qualcosa che sei
pensando a qualcosa di cui preoccuparsi
circa e poi alcuni falsi positivi sono
Non affatto divertente come questo prossimo
Flickr lo ha classificato come un bambino
attrezzature da gioco Dachau
e voglio che tu noti qualcos’altro
qui perché quelle grandi azioni sono le
i fotografi sono i tag bianchi
sfarfallio è una conseguenza di
arroganza algoritmica che tratta l’umano
capire il fotografo stesso
conoscenza di dove erano e cosa
loro videro e lo gettarono a favore
di un algoritmo che tratta il sistema di credenze
dati come intrinsecamente neutrali quando chiaramente
ci saranno molte circostanze in
che non è anche flickr taggato
lui come animale originariamente etichettato
anche lui come scimmia è un paragone
questa è una storia particolarmente brutta
non è semplicemente sbagliato è profondamente
offensivo quindi voglio essere chiaro da fuori
qui che non si tratta di raccogliere
una qualsiasi di queste singole società o a
coder dietro di loro o anche una metodologia
sai, intendo che questo è più di
diciamo solo reti neurali artificiali questo è
l’immagine grande sarà sempre nuova
scoperte e noi sempre faremo
questi stessi tipi di errori cadono in
queste stesse insidie ​​più e più volte
a meno che non adottiamo approcci diversi qui
sono le foto di google un mese dopo quelle
ultimi due esempi ancora il confronto
per un gorilla è casuale ma è così
non potrebbe essere peggio così fa anche questo
capita è davvero dubbio che lì
era un ingegnere che è come hey
come tutti i neri e li etichetta
come guerriglieri che saranno esilaranti no
per una risposta si può andare fino in fondo
negli anni ’40 lo era Kodak Eastman
sviluppando un’emulsione di film a colori e
stiamo parlando dell’America in un periodo
dove la segregazione razziale era ancora il
norma in cui stavano facendo attenzione
scelta su se
arrivare a persone bianche o nere che
è il mercato preferenziale per il nostro
prodotto e non sorprendentemente hanno scelto
i bianchi molto prima dei computer
aveva algoritmi e sviluppo di film
basato su un algoritmo ogni giorno di laboratorio
i tecnici avevano un’immagine come questa
chiamato la carta Shirley e tutti i giorni
avresti scattato una foto per il film
e assicurarsi che i risultati fossero
registrando i colori lo stesso lo stesso
quantità di dettagli e se non lo facessi allora
hai bisogno di ricalibrare la tua macchina
quindi questo diventa il riferimento per
esattamente come dovrebbe essere il tuo film
eseguendo la pelle nera trattata come
irrilevante l’importante è
produce dettagli precisi nella luce bianca della pelle
tonifica tutta la leggerezza che significa tutto
che i nostri processi di sviluppo devono
rispondere a questa eredità che è
generazioni perché anche quando
l’imaging digitale ha iniziato a essere sviluppato
negli anni ’60 e ’70 ha seguito lo stesso
modello e quando hai avuto digitale
fotografia emergente allo stesso modo
seguì lo stesso schema e se lo fosse
non ha pensato a cosa avrebbe
i consumatori accorti avrebbero visto
le immagini sembrano completamente diverse da
sono abituati a scattare foto a parte
lato avrebbe detto wow questo
la tecnologia fa schifo quindi continuiamo a portarlo
inoltrare ogni set di immagini che è mio
intrinsecamente compromesso da questo smarrito
dati che sono stati prodotti anche ora sotto il
peso di algoritmi profondamente viziati 70
anni gli strumenti utilizzati per fare film
la scienza di esso non è razziale
neutro e questo ci presenta un duro
problema un problema veramente difficile, quindi è così
davvero facile decidere di evitare di pensare
a questo proposito e così continua
e via
una ditta è un avvio di prestito di credito è
da uno dei fondatori di PayPal
non micro prestito ma è prestito per
prodotti specifici piuttosto che qui a
carta di credito compra quello che vuoi e
è una caratteristica speciale è che è tutto
decidere algoritmicamente chi è un buono
rischio di credito piuttosto che convenzionale
metodi in cui conosci te
dimostrare varie cose che dimostrano
sei bravo a pagare le bollette giusto
gli algoritmi sono gatekeeper di ogni sorta
di cose non solo di credito ma anche di cose
come l’alloggio e il lavoro, cosa c’è di nuovo in questo
non è come quei metodi precedenti
anche gli algoritmi non dimenticano proprio
come diciamo se guardi questo
questo e questo sappiamo qualcosa al
Alla fine abbiamo un risultato questi sono giusti
diversi algoritmi che siamo ora
applicare la grande differenza è però
ora stiamo applicando algoritmi in nero
scatola non sappiamo più cosa la
l’algoritmo è ciò che decide chi
ottiene l’accesso a posti di lavoro e alloggi e
credito banche tradizionali e loro
le autorità di regolamentazione stanno davvero pagando da vicino
l’attenzione a questi nuovi modelli afferma
e altri stanno valutando come
adottare le stesse strategie e quindi questo è un
davvero un buon momento per guardare a quelli
le strategie sono e l’impatto che loro
avere una ditta fa una valutazione di
solvibilità basata su pochi
considera il tuo nome la tua email sul tuo cellulare
numero il tuo compleanno e il tuo governo
Numero ID e a volte intendo di solito
fanno un giudizio proprio lì scattano
quelle poche cose ma a volte si sentono
come se avessero bisogno di un po ‘di più così faranno
chiedi qualcosa come il tuo github
account e usarlo come settimo
criteri quante persone qui hanno un
bene avere conto giusto quante persone
generalmente nel mondo hanno un github
conto sì okay, questo è già
selezionando il privilegio ed è
selezionando su una nicchia davvero particolare
del mondo guarda anche alle cose
come il
fattori come ad esempio quanto tempo la persona
prende a ricordare quelli Wow tutti e sei
i fattori comportamentali sono davvero
interessante modo di dire che ricorda
Salas parla della neuro diversità che c’è
tutti i tipi di motivi per cui qualcuno può farlo
dobbiamo fare una pausa, stiamo tutti guidando
quelle cose sono alcune di loro
a causa di distrazione ordinaria alcuni di
sono perché sei Stephen Hawking
e forse ti ci vuole un po ‘di tempo per
a quanto pare è un cattivo rischio di credito
questi sono algoritmi che rinforzano tutti
privilegio torniamo a quell’originale
descrizione un algoritmo è solo un
procedura per arrivare in modo affidabile ad alcuni
risultato quale è il risultato qui a
prevedere in modo affidabile che le persone in un molto
nicchia stretta con un sacco di
privilegio stanno per ottenere credito
sapere cosa avrebbero già avuto
credito chi è bloccato da questo è su
a noi per tener conto degli impatti che
i nostri algoritmi portano al risultato qui
sta solo identificando in modo affidabile le persone che
può pagare le loro bollette non le persone che lo faranno
ed è affidabile escludendo la maggior parte delle persone
che semplicemente non hanno un’abbondanza
di privilegio per attingere ad Alan Turing
ci ricorda che se una macchina è prevista
essere infallibile non può essere anche
intelligente l’immenso potere della macchina
l’intuizione è insostituibile che è no
dubbio siamo andati ben oltre il volere
e non sto suggerendo che dovremmo
ma non è un sostituto per
comprensione una ditta analizza i candidati
account di social media come ho detto che sono
non l’unico così ha fatto un altro
aziende come ad esempio nel 2012, è possibile
ricorda che il più grande credito della Germania
valutazione di un’agenzia di rating del credito considerata
valutazione dei candidati Facebook
le relazioni come criterio di credito
Amici di Facebook
un amico personale non è necessariamente il
come un amico di Facebook proprio come noi
lo so a quanto pare non l’hanno fatto ma
che dire quando un amico di Facebook è
generalmente un amico amico Facebook
alcuni anni fa ha difeso un brevetto
spinge ancora più lontano di tutti questi altri
i modelli fanno perché il suo brevetto è per
prendere decisioni di credito su una persona
basato sul credito completamente non correlato
storia dei loro amici di Facebook no
solo Associazione ma completamente cosa
qualcun altro fa qui un algoritmo
con possibilità di intromettersi profondamente su e
altera le tue relazioni di vita reale
semplicemente per evitare di essere finanziariamente vergognoso
e punito da un algoritmo il fondatore
di azienda dice che è importante mantenere
la disciplina di non cercare di spiegare
potrebbe aggiungere troppe ipotesi umane
introdurre pregiudizi nell’analisi dei dati
quale data del tizio non è un dato oggettivo
ha sempre un minimo inerente e come
è raccolto e interpretato molto
iniziando quegli input e poi ogni
presupposto errato che il set di dati di addestramento
e tutte le funzioni originali sono
corso andando a non essere riconosciuto
influenza su algoritmi e quelli
i risultati che generano una ditta dice
che il suo algoritmo valuta 70.000
tratti da ricordare quei sei dati
indica quanti di questi hanno un potenziale
per risultati discriminatori come sarebbe
qualcuno sa anche che non è come qualcuno
posso dirti quali criteri hanno portato a
decisione razionale per l’algoritmo
può essere visto solo dall’interno del nero
scatola così ho scattato una foto dell’interno di a
la scatola davvero veramente nera ora lo sappiamo
prendere decisioni di prestito all’interno di un nero
box non è un modello di business radicalmente nuovo
è una regressione che cosa sta sconvolgendo
equità, responsabilità e supervisione
Sarah Mae dice che ci sono molti regolamenti
posto per correggere per strutturale sistemica
pregiudizio contro i gruppi minoritari chiedono
chiedi a te stesso che vuoi
essere parte di quella rottura delle realtà
gli algoritmi hanno sempre un sottostante
assunzioni ovviamente sul significato
sull’accuratezza del mondo in cui
il Jado è generato su come il codice
dovrebbe assegnargli un significato
influenza delle ipotesi sottostanti
esiti e conseguenze
generato e ancora Thoreau ci ricorda il
l’universo è più ampio della nostra visione di esso
la nostra industria è in una corsa agli armamenti giusta
ora i giocatori principali stanno uscendo
prodotti che fanno grandi scommesse sulla scatola nera
algoritmi e quelle intuizioni opache
e il ritmo di implementazione è in movimento
così veloce è imperativo che facciamo
decisioni in questo momento come un’industria in merito
processi etici e pratici per
andando avanti con questo bene per il
i risultati del momento sono chiaramente variabili
qualità ma ricorda che questi
le innovazioni riguardano esclusivamente il disegno
intuizioni predittive estremamente fini
livelli a grana veloce e cosa significa
è che stanno crescendo sempre di più
precisione, correttezza e sempre di più
danneggiando in errore, ecco il
il dilemma per noi ci preoccupa di ottenere
questa roba non saremmo in questo
stanza se non volevamo essere
codificatori empatici quindi come riusciamo a riempire il
paradigma qui ci sono alcuni punti di partenza
considerare le potenziali conseguenze su
altri come potrebbe influire su un falso positivo
Qualcuno è come quelli che fanno il buio
clienti o utenti di Twitter come potrebbe a
falsi effetti negativi per qualcuno
istanza di essere
negato quel prestito o essere dichiarato a
supremacista bianco in quanti modi
l’intuizione degli algoritmi è superficiale
corretto e tuttavia profondamente sbagliato riguardo all’essere umano
contesto in cui sta attingendo da simili
quella foto di Dachau o così
promemoria del progetto di figlia di Eric Myers
la probabilità di conseguenze per gli altri
minimizzare le conseguenze negative per gli altri
mi hai sentito continuare a dire gli altri
altri gli altri erano così bravi
anticipando come le cose possono andare storte o
bene per la nostra missione per la nostra azienda
il nostro prodotto per le nostre funzionalità, ciò che siamo
non va bene ricordarsi di
pensa agli impatti sugli altri che noi
ho bisogno di portare nella stanza penso che il
filosofia delle professioni mediche di no
il danno è uno che possiamo adottare è a
quadro per pensare a questa roba
un altro dobbiamo essere onesti e di cui abbiamo bisogno
essere degni di fiducia e questo non è solo
riguardo hey vogliamo essere belle persone è
perché è la cosa giusta da fare
periodo sì ma anche perché lo è
necessario come problema aziendale lo faremo
fare grandi errori su questa roba se
Google e Facebook e tutti questi altri
si può essere certi che anche il resto di noi possa farlo
dobbiamo essere in grado di costruire essenzialmente
valuta per poter dire quando
succede che questo è stato un errore onesto e
siamo sinceramente dispiaciuti di averlo risolto
ora e ci siamo guadagnati la tua fiducia, spero
essere in grado di recuperare da questo e spostarsi
avanti ed è per questo che abbiamo anche bisogno di
assicurarsi che stiamo costruendo in
ricorso affinché le persone siano in grado di farlo facilmente
giuste conclusioni che erano sbagliate cosa
se Eric Meyer sarebbe stato in grado di farlo
dì semplicemente clicca non una memoria felice
fornire agli altri una completa divulgazione di
limitazioni di ciò che abbiamo fatto ciò che noi
richiamare l’attenzione sui segnali di rischio di
male ci sono sempre limiti in cosa
facciamo e stiamo bene con quello giusto
sta prendendo di mira un problema particolare in a
particolare contesto con particolare
ipotesi e thar
un pubblico e lo sta accettando
ci sarà sempre una sorta di
quantità di difetti e imprecisione di tutti
è previsto e va bene e io no
sfidando tutto ciò di cui abbiamo bisogno
per far capire ai consumatori ciò che quelle
i limiti sono che hanno lo stesso
comprensione dello scopo che facciamo questo
è un petto di pollo questa è un’attività
tracker su un petto di pollo questo è un
estratto da un grande video di Emily
gorsinski sta facendo un discorso che è acceso
problemi simili relativi a Internet di
cose questa frequenza cardiaca inseguitori di attività
il monitor sta rilevando un buon impulso costante
di 119 battiti al minuto dal pollo
mammina, vieni divertente, uh-huh fino a te
sapere che una donna è stata recentemente condannata
di un crimine basato sui dati della frequenza del polso
prove dai suoi tracker di attività
cardiofrequenzimetro erano questi dispositivi
mai progettato per essere preciso
gli strumenti scientifici non sono nemmeno vicini
giusto sostanzialmente questi algoritmi
i centri erano più o meno progettati per
catturare alcuni dati per dare una sorta di
senso di tendenza che non ha nemmeno bisogno di
essere obiettivamente si sa confrontato con
altri è solo il livello da
giorno per giorno usando questo sensore fa o
non cambia entro un ragionevole
legato giusto è davvero tutto ciò che è dentro
per alcuni aspetti sono un intrattenimento
prodotto più di un prodotto scientifico
certamente non sono mai stati pensati per essere usati come
prove criminali, ma il pubblico ha
preso a cuore la convinzione del nostro settore
che gli input degli algoritmi sono sempre
le loro uscite precise sono sempre precise
e oltre ogni dubbio che ciò che facciamo è
la scienza è importante che noi
comunicare con loro su ciascuno
algoritmi limitazioni realistiche perché
dipendono da cose che sono
non è vero, dobbiamo essere visionari
creando più modi per contrastare i pregiudizi
la distorsione dei dati analizza gli effetti di bias e quando
dico che x non è necessariamente intendo
discriminazione
Voglio dire distorcere le cose che sono diverse
dalla realtà che si aspettano di essere
coprendo abbiamo bisogno di anticipare diversi
modi per rovinare questo lo faremo a lungo
come le squadre hanno il compito di definire
raccolta dati e utilizzo dati e
le analisi sono meno diversificate rispetto al
base di utenti che intendiamo mantenere
in mancanza ciò è una certezza che abbiamo
avere un’autorità decisionale nel
mani di squadre molto diverse non solo
cultura di squadre diverse ma molto diverse
in forma è l’antitesi della diversità è
variazioni superficiali a cui è permesso
non esistono più la loro prospettiva unica
è soppresso perché hey l’attuale
punto di cultura phit è da evitare
rottura di pensiero di gruppo sai
dimensionale è una varietà non lo è
la diversità o questa è varietà è
selvaggiamente variato su altrettante diverse
dimensioni che potresti trovare
origini diverse età assunzioni
esperienze sfondi dove c’è
non è più una maggioranza da identificare
abbiamo le nostre squadre in questo modo
perché il pubblico di destinazione quando diciamo
vogliamo che un pubblico globale lo faccia
risultati di audit costantemente perché di nuovo
i risultati sono tutto ciò che possiamo vedere, quindi cosa faccio
significa con quello in abitazioni e ricerca di lavoro
questa è una tecnica collaudata piuttosto comune
utilizzato in una varietà di campi fondamentalmente
quello che fai è che ne crei due identici
le applicazioni di voi sanno qualcosa di simile
dire che domanda per una borsa di studio o
un lavoro o un mutuo qualunque e tu
basta cambiare un attributo solo una cosa
a volte sono cose come le altre
cambia il nome o il sesso o tu
conosci la razza implicita qualunque essa sia
e tu mandi queste due applicazioni in
la scatola nera e in passato ovviamente
la scatola nera è essenzialmente così
quel padrone di casa o chiunque altro sia
valutando questo caso quello che valuta
è la scatola nera a destra e poi guarda
il risultato perché se il pregiudizio non lo fa
esistono queste sono applicazioni identiche
destra
dovrebbero avere risultati identici se
non lo abbiamo scoperto allora
da qualche parte in questo sistema esiste un pregiudizio
ci dà un punto di partenza per
investigazione così mentre chiaramente non possiamo
controllare ogni possibile contingenza lì
siamo alcuni che certamente lo sappiamo
controlla le cose dove c’è
problemi normativi dove tu conosci noi
sappi attivamente che queste sono cose tue
non posso discriminare certamente
verifica sempre per quelli qualsiasi cosa è
protetto dalla legge è il minimo indispensabile di
cosa dovremmo cercare, ma puoi
anche cercare gli indizi di coloni qual è il
sistema che descrive implicitamente il significato di
per esempio è dire una differenza di
cognome o pericolo personale letti
come qualcos’altro come attributo di
carattere per esempio regola del pollice
qui è a meno che tu possa disegnare un completo
albero decisionale per ogni possibile
combinazione di input che portano a tutti
possibile controllo di output che è quello che è
la tua linea di fondo se non puoi farlo
quindi devi essere auditing risultati è
tutto quello che abbiamo, quindi cosa comporta
prima ricordate che google adword
studiare questo è un esempio di cosa
Sto parlando di questo risultato
l’auditing qui è un altro è a
Strumento chiamato Carnegie Mellon University
ad Fisher che genera completamente per
vedere le cronologie di google e poi andiamo
Google risponde con annunci di lavoro ed è
interessante perché ha dimostrato che alto
i lavori retribuiti furono mostrati a seicento
la percentuale di uomini in più rispetto alla folla femminile
fonte il più possibile le nostre squadre
sempre limitato nella nostra conoscenza e
prospettiva approfittare del fatto
che la folla ha molta più immaginazione
offrire e conoscere questi casi
gli studi davvero evidenziano per noi questo
i dati sociali di data mining sono pieni di tutto ciò
insidie ​​e loro non possono essere tutti
risolto dalla sola tecnologia e così noi
non ce n’è bisogno, potremmo approfittarne
modi di raccolta non tecnologici
conoscenza
e finisce sai come se ci fosse questo
approssimazione approssimativa del cervello
capacità di sviluppare costantemente
algoritmi sofisticati lo stiamo facendo
ogni giorno quindi perché non portare il reale
la cosa in questo è un estratto da un discorso
dai fiumi Heather che all’epoca erano
si chiama Yammer
potluck linguistico Yammer sono a lungo
il tempo è stato crowdsourcing
internazionalizzazione e traduzioni così
noti qui hai solo uno standard
display ma in fondo si potrebbe
scegliere di tradurre fornire a
traduzione a Yammer e poi cos’è
importante qui è quella traduzione
non è immediatamente accettato è per il
resto della folla per poi valutare il
verità o falsità di questo così tu
avere costantemente questo raffinamento di dati
e hai anche dei controlli sulle persone
cercando di giocare al sistema o semplicemente di essere
google sbagliato ha un’app simile chiamata
crowdsourcing un nome molto originale è
essere abituati a fare controlli sulle cose
come la tastiera google di Street View
tradurre la cosa importante qui è
questa è una cosa raccolta dati proprio così
se ho detto che la raccolta dei dati ha
potenziale per pregiudizi uno dei modi
che questo ha problemi di parzialità
che sono esattamente dentro
comunicare ciò che stanno guardando
per e quindi hai una varietà di modi in
quale si ottiene obliquamente per esempio alcuni di
gli utenti credono quello che sono
essenzialmente facendo sta fornendo a
definizione del dizionario, quindi stanno dando
mi piace l’intera lista piuttosto che a
la traduzione è qui è un riferimento
manuale altre volte sono stati trattati
come se stessero parlando a qualcuno
l’ingegnere k è approssimativamente
qualcosa come la mia amata a volte
stanno solo trollando
a volte sono davvero trolling
e a volte la troll è di circa
pensare deliberatamente ad inietti pregiudizi
per un momento su una frase
costruzione in cui l’immigrante diventa
Mehmet questo può davvero avvelenare il
bene, ecco perché è necessario averli
controlli coltivare consenso informato chiedere
per il permesso con l’impostazione predefinita è no
concentrarsi su tutte quelle persone che vogliono
condividere se stessi che sono entusiasti
sul dare il consenso per conoscerli meglio
voglio essere conosciuto che vogliono essere in grado di
ottenere le migliori caratteristiche e migliori sconti
avere la migliore esperienza delle nostre app
essere servito meglio c’è un sacco di gente
non c’è motivo per cui dobbiamo iniziare
costringendo persone è stato Facebook
apportando molte modifiche di recente
questo giorno e la tua intervista ora chiedono
domande come vuoi usare questo
caratteristica hey che è una buona te
vuoi modificare le sue scelte quali persone
non vuoi che ti ricordi di quale?
date che pongono che suona bene
va bene è meglio di quello che abbiamo visto
prima il suo sforzo è ben intenzionato
manca comunque l’immagine grande perché
queste nuove caratteristiche più delicate sono tutte
promesso in lista tutto ciò che non fai
voglio pensare a pensare a una lista di
ogni singola cosa che non lo fai
voglio pensare mai a perché dovrei
Devo scavare ciò che mi fa male a respingere
un algoritmo per quello che stanno facendo
è ancora fondamentalmente opt-out non
gli esempi di opt-in di opt-out sono cose
come dover bloccare ciò che abbiamo messo
là fuori o avere un ignore o a
filtro o disabilitato in qualche modo il
il default è attivo e tocca a noi
cambiarlo opt-in significa che inizi con
qualcosa come sceglierò di seguire I
sceglierò di vederlo io sceglierò
per selezionare o abilitare questo perché non solo
lascia che qualcosa come gli spettatori di Twitter
seleziona le persone che consigliano
segui lo facciamo comunque, è chiamato
segui venerdì come un sacco di gente
hanno già dato il loro effettivo
raccomandazioni perché Twitter ha bisogno di
salire
con questa roba come una stima per quando
dati precisi sono disponibili in un altro modo
puoi farlo è avere una casella di controllo giusta
come tutte quelle persone incinte in realtà
Penso che probabilmente sia entusiasta di avere
alcuni buoni perché non chiedere alla gente e al
la cosa bella è se chiedi alle persone che ottieni
non solo una persona incinta ma altro
persone che hanno un interesse nella gravidanza
proprio come probabilmente c’è gente che
voglio comprare regali e roba questo è un
metodo migliore un business più efficace
metodo invece di provare possiamo ottenere
la gente che viene da noi è una vittoria e questo
è il motivo per cui dobbiamo anche impegnarci per i dati
trasparenza e algoritmica
trasparenza e questo è quello in cui io
so che è la conversazione più difficile a
avere internamente perché così tanti
le aziende pensano che per taya cherry
tutto è la salsa segreta è il
vinci se riveliamo cose, allora sai oh
no e vedo che tipo di paragone è
che sai che non è stato molto tempo fa
che stavamo combattendo per la legittimità di
usando l’open source nel nostro lavoro e noi
fatto alcuni argomenti simili giusti
sulla trasparenza è parte del valore
di questo e abbiamo spinto forte abbiamo vinto noi
avevamo ragione, possiamo farlo di nuovo
professionisti sappiamo che la trasparenza
è cruciale per disegnare intuizioni che sono
genuino e utile quindi almeno avviare il
conversazione non abbiamo il Cardillo
oggi ma almeno inizia a litigare
aumentare la trasparenza perché è per
per un prodotto migliore è per
per caratteristiche più pulite per
meno bug e per test più forti e
per gli utenti più felici e per la fiducia del pubblico
e per essere in grado di fare più soldi
perché stiamo costruendo cose così
importa che Amy Hoy è davvero dura qui, ma
Penso che abbia davvero ragione se la tua
prodotto ha a che fare con qualcosa che
Il PDP riguarda le persone che si prendono cura o smettono
andare a vivere in una grotta non fare del male ad altri
la gente è così facile da non pensare
costruire un pull out di questo data mining
fallire perché costruisce diversamente
richiede il pensiero critico consapevolezza
e richiede soprattutto di decidere come a
squadra di prendere una posizione per dire hey ascoltare
questo è l’accordo che non costruiamo le cose
qui senza comprendere le conseguenze
per gli utenti questo è solo il nostro modo di farlo
il nostro processo è buono, siamo assunti
per più di un semplice codice non siamo codice
scimmie o assunto come professionisti in
problem solving il nostro ruolo è quello di essere
supponente su come rendere il servizio del codice
un problema di spazio bene questo è il nostro effettivo
rinfrescando applicando la competenza nel giudizio
su come risolvere i problemi questo è il
argomento che possiamo fare quando ci viene chiesto di farlo
scrivi un codice che presume di intuire
la vita interna delle persone e agire su quelle
ipotesi come professionisti che dobbiamo
i proxy degli utenti devono essere i loro sostenitori dicono
no a loro nome per usare i loro dati
in modi che non hanno consapevolmente
acconsentito entusiasticamente di dire no a
sistemi che riproducono acriticamente
avere pregiudizi integrati in loro dicono di no
scrivere un codice che impone non autorizzato
conseguenze sulle loro vite in breve
rifiutare di giocare insieme grazie
tu

Please follow and like us: