Press "Enter" to skip to content

GOTO 2017 • TensorFlow in the Wild (or the Democratization of Machine Learning) • Kaz Sato


[Musica]
[Applausi]
grazie mille per aver dedicato tempo
per la mia sessione macchina del mondo reale
imparando originariamente è titolo come
tensorflow
nel mondo in ogni caso sarò a parlare
sul mondo reale i casi d’ uso del mondo
di tiro intensivo Sono Kaz I’m a
sostenitore degli sviluppatori per il team cloud di Google
quindi di solito vado a molte conferenze e
meetup eventi che parlano di
tecnologie e prodotti e messa a fuoco
su dati e prodotti di analisi come
tende di roccia che è un open-source
libreria in esecuzione o big-machine
su cui è in esecuzione un data warehouse
Google Cloud e altri dati
elaborazione dei prodotti che ho lavorato
all’ufficio di Google Tokyo per oltre sei anni
quasi sette anni
e per gli ultimi quattro anni che sono stato
lavorando su Google Cloud e lavorando a
Tokyo, ma di solito ne ho trovati molti
diversi paesi così per questa settimana
è andato a Vienna e Parigi e salvo
e io ero a Shanghai la scorsa settimana
andare in India tra due settimane, quindi vado
in tutto il mondo e parlando del
machine learning quindi cos’è la macchina
apprendimento o AI o rete neurale così
non c’è una definizione di profitto scientifico
cos’è l’intelligenza artificiale, ma tu
posso dire che puoi dire che è un
tecnologia o o una tecnica da fare
le cose intelligenti rendono il computer un record intelligente
costruendo una macchina di guida autonoma o
computer scritto disegnando una bella
immagine e uno dell’approccio è quello di
rendersi conto che la visione di IA è una macchina
imparare ciò che è l’ apprendimento automatico
matematicamente puoi pensare alla macchina
correre come un modo automatico
programmando così invece di assumere molti
programmatori umani che scrivono Java o C o
Codice Python per istruire il computer su come
risolvi ogni problema invece puoi metterlo
dati al computer in modo che tu possa farlo
computer per risolvere un problema con
estraendo determinati modelli o caratteristiche
a partire dal
più tardi e ce ne sono stati così tanti
diversi algoritmi per macchina
imparare come una macchina vettoriale di supporto
regressione logistica forestale così casuale e
uno di questi è la rete neurale e neurale
la rete è stata utilizzata per molti anni
come 30 o 40 anni già
ma intorno al 2012 abbiamo visto un
la svolta sta avvenendo nel
area della rete neurale in modo che il
motivo per cui Google ha speso così
molte risorse sullo sviluppo neurale
tecnologia di rete quindi cosa può che tipo
di resa del problema che puoi risolvere con
apprendimento automatico sulla rete per
esempio se hai due frutti come questo
e il tuo cliente viene da te e chiede
puoi classificare questi frutti come un?
OP mela o arancia che tipo di programma
codice che scriverebbe con Java o Python
o lei qualsiasi codice potrebbe essere il modo più semplice è quello di
guarda il colore o i pixel
se questa arancia deve essere arancione se lo è
una mela come vediamo che il rosso deve essere mela
ma il tuo cliente arriva, tu vieni da te
di nuovo e detto nel sistema di produzione è
in realtà le prestazioni della fotocamera
non è così grande, quindi potresti avere un
immagine monocromatica che tipo di programma
codice che scriveresti per classificare questo
percorso in questo caso non puoi fare affidamento
il colore o i pixel che devi prendere a
guarda le forme o i modelli o
trama e poi arriva il tuo cliente
il tuo gioco e effettivamente in produzione
sistema devi classificare queste immagini
a
sembrano tutti come stracci um o un telaio o
qualcosa ma qui se lo stai attentamente
guardando alcune delle immagini di alcuni
loro sono in realtà cani
questi sono cani che tipo di codice Java
scriveresti per attraversare ZZZ
quindi effettivamente in questi casi il neurale
rete di apprendimento automatico fa a
davvero un ottimo lavoro in particolare se lo metti
queste immagini caricate nel cloud
API di visione l’API di visione quad fa a
lavoro abbastanza decente su ZZZ a fuoco incrociato qualsiasi
gli algoritmi di apprendimento automatico non possono
raggiungere il 100% di precisione è quasi quasi
impossibile quindi di solito l’apprendimento automatico
può darti come 70 o 80 o 90 95
precisione percentuale non al 100% ma è ancora
è abbastanza ragionevole e decente
facendo così come funziona la rete neurale
può servire a quel tipo di problema che puoi
pensa alla rete neurale come a una funzione
funzione in matematica o funzionalmente
nel linguaggio di programmazione in modo da poter mettere
qualsiasi tipo di dati come input e tu
otterrebbe i dati articolo e si può
allenare la rete neurale per risolvere il tuo
problema se si tratta di un’immagine
riconoscimento o riconoscimento audio o meno
– sbagliato sta elaborando o anche tu sai
se possiamo provare ad allenare il neurale
reti per risolvere i vostri problemi di business
come trovarli durante l’uso
casi da per la carta di credito finanziaria
utilizzare casi o trovare un utente premium da
sito di e-commerce o trovare un inganno
utente per il tuo server di gioco quindi qualsiasi cosa
possono essere rappresentati altri numeri in a
vettore o matrici e provare a utilizzare il
rete neurale per il nostro neurale
il cancro alla rete è un problema, quindi facciamolo
dai un’occhiata alla vera dimostrazione di
come Neural Network funziona in questo caso io
utilizzare direttamente due dati due tipi di dati
uno è X 1 e l’altro è X 2 e se tu
trama questi dati come un punto dati in un 2d
lo spazio contiene schemi a spirale
spirale arancione e spirale blu che tipo
di codice che avresti scritto per classificare
questi modelli quindi se sei un umano è
davvero facile da trovare i modelli per
esempio se si dispone di un nuovo punto dati
qui deve essere il nuovo punto dati blu qui
deve essere arancione ma è molto difficile
programmatori per esprimere o rappresentare quello
tipo del modello complesso con sequel
una query o Java hanno chiamato queste logiche
invece potresti voler usare la tua rete
di apprendimento automatico questo è un
dimostrazione chiamata tensorflow
parco giochi dove puoi effettivamente costruire
la tua semplice rete neurale all’interno
browser e prova la formazione del modello genico di
mettendo molti dati di allenamento così ho
appena iniziato l’allenamento neurale
rete e stai vedendo che il
il computer sta cercando di catturare un certo
schemi complessi a poco a poco guardando
i dati di allenamento quindi questi sono i
dati di allenamento, se è necessario disporre di
fornire e quindi il computer tenta di imitare
o catturare un modello che è giusto
gli umani lo fanno spendendo molta informatica
potenza e fornisce molti dati di allenamento
il computer è in grado di catturare a
modello complesso proprio come il doppio
schemi a spirale quindi in questi casi dove
hai dentro il modello molto complesso
dati è molto più facile usare la macchina
apprendimento o rete neurale per catturare a
certo partner di dati invece che
scrivendo molti complessi e fragili
condizioni e dichiarazioni uguali nel tuo
nel tuo programma e ho usato due dati
x1 e x2 nell’esempio precedente ma
puoi estendere lo stesso approccio o
tecnica per attraversare molti di diversi
tipi di dati come i dati dell’immagine
esempio se hai un testo scritto a mano
come dati monocromatici è possibile appiattire il
dati pixel in un singolo vettore con 784
o numeri in un singolo vettore da addestrare
la rete neurale
con un singolo Raya questo non è un profondo
pianificare questo è un muscolo molto semplice
semplice rete neurale con singolo strato
ma anche questo singolo strato neurale
le reti non possono riconoscere il
testo scritto a mano con una precisione di circa il 90%
quindi allenando il modello neurale
le reti possono riconoscere quale immagine tu
avere a ciò pixels dovete guardare
riconoscere la cifra 8 ciò che cerca o
giustificare così effettivamente funziona su molto
matematica semplice con moltiplicazione
moltiplicazioni e aggiunte ma avendo
i nostri molteplici strati di quelli più semplici
reti neurali puoi fare molto di più
lavoro migliore sul riconoscimento complesso
modelli dai dati che è cosiddetto
rete neurale profonda o pianificazione profonda
a Google stiamo usando una neurale profonda
modello di rete per il riconoscimento dell’immagine con
circa 40 strati o 80 strati tra in
patate e patata d’arte quindi questo è
cosiddetto deep learning e training
il modello di apprendimento profondo puoi vedere il
i numeri nello strato inferiore possono essere
addestrato a riconoscere un molto semplice
modelli i cosiddetti bordi degli oggetti o
i neuroni negli strati centrali possono
riconoscere trame o modelli di dentro
i neuroni di immagini nello strato superiore possono
diventa molto più intelligente in modo che possa
possono riconoscere parti di un oggetto di
gli oggetti registrano il naso del cane o noi dentro
automobile o alla fine si ha di nuovo
quelli che possono arrivare come il tutto
record dell’oggetto è un veicolo o un fiore
festa di matrimonio o in montagna e così via
questa è la base della rete neurale
e una pianificazione profonda e come Google ha
stato usando la tecnologia per
implementando i nostri servizi in realtà
abbiamo già più di 100 produzione
progetto che ha usato profondi
imparare non solo il tradizionale
apprendimento automatico in produzione per
esempio, il servizio di ricerca di Google ha
ha introdotto il modello di deep learning in
2015 quindi se stai usando la ricerca di Google
servizio ogni giorno che significa che sei
già usando
essere la pianificazione da parte di Google di tutti i giorni della
profonda conoscenza degli algoritmi di ranking basato
può determinare quale dovrebbe essere il
primo o secondo o terzo nella tua ricerca
risultato Google foto è uno dei più
applicazione di successo della pianificazione
quindi ora non devi mettere nessuna etichetta
o tag sulle immagini che hai scattato
con i tuoi smartphone invece puoi
basta lasciare che le foto riconoscendo la
oggetto dentro quelle immagini così puoi
basta digitare parole chiave come cane o a
nome dell’amico o dei fiori da cercare
cerca gli oggetti all’interno delle immagini
posta in arrivo è un’applicazione di posta elettronica di Google
le applicazioni mobili che ha smart
funzione di risposta che ha riconosciuto che tipo
della conversazione sta accadendo su ciascuno
thread di posta elettronica e cerca di mostrarne alcuni
opzioni per rispondere ad ogni thread di posta elettronica così
se stai cercando il tatto
guardando la parte inferiore del
le applicazioni che vedrai ci saranno
essere un record di tre opzioni non ancora marchi
Ho appena inviato in modo che gli utenti possono semplicemente
stampa una di queste opzioni per rispondere a
thread di posta elettronica e ora per quali erano
presente di tutte le risposte inviate su dispositivo mobile
l’applicazione è già generata da AI
o l’apprendimento automatico così gli umani sono adesso
smettere di scrivere email più persone
traduci questa voce per presentarti più recente
modello di traduzione automatica che ha
migliorata la qualità in particolare il
fluidità del testo tradotto
in modo significativo questo è un uso diverso
caso in Google all’interno di Google nel
Centro dati di Google nel centro di test di Google
ogni edificio del data center ha un record di dieci
o venti o trenta migliaia fisici
macchine in un unico edificio e noi
hanno usato operazioni umane per
controllare il raffreddamento raffreddando una risorsa
ottimizzazione, ma siamo passati al
automatico o automazione dal profondo
algoritmi in esecuzione mettendo tutto il
diverso il vario o il maggiore
dai dispositivi IOT come il
temperature o consumi energetici o
ciò che era solo su ogni servizio o addirittura
le informazioni meteo sono provenienti da
l’ esterno dall’edificio o il tutto
i dati del sensore provengono dal
generatore di corrente o conversione di potenza
i sistemi allora hanno fatto il deep running
il modello è stato in grado di ridurre qui l’ energia
consumo per il raffreddamento di potenza per
sistemi di raffreddamento fino al 40% di Google
spendere così tanti soldi per il potere profondo
costo per il sistema di raffreddamento e puoi
ridurre il 40% di quella somma di denaro
semplicemente accendendo l’interruttore di AI così
la pianificazione non è un hype o buzz
parola o progetto di ricerca su Google
più è un progetto di produzione stabile
che è stato utilizzato negli oltre 100
progetti di produzione e ora
stiamo cercando di est analizzare il potere
della macchina che corre verso l’esterno
sviluppatori e clienti e ne abbiamo due
diversi tipi di prodotti uno è
API di machine learning e un’altra è
macchina personalizzabile personalizzata in esecuzione
modello quindi iniziamo a parlare
macchina in esecuzione abs prima macchina
running api’s è un wrapper per il pre
il modello addestrato google si è allenato
i molti modelli diversi per l’immagine
riconoscimento o riconoscimento vocale o il
l’elaborazione naturale di Rani, così puoi farlo tutti
devi fare è caricare la tua immagine o
audio o file di testo per l’API e questo è
non devi avere alcuna competenza
o conoscenza dell’apprendimento automatico così
diamo un’occhiata al reale
esempio dimostrativo se vai al
pagina del prodotto dell’API di cloud vision
chiunque può provare l’API di visione senza
spendere soldi o firmare una firma
con il tuo account in modo da poter andare a
cloud.google.com e poi trova il
pagina del prodotto per l’API di visione così tu
lo troverà e guiderà la casella API nel
in mezzo dove puoi caricare qualcuno
la tua qualsiasi immagine per provare il
API quindi se carichi l’immagine sheepdog
allora riceverai il risultato come
questo in pochi secondi piace così il cloud
la visione API può diventare come è un cane è
non scopare e puoi anche provare la divisione
API vocale che fornisce l’ acuità elevata
riconoscimento vocale e anche io ho un an
accento nel mio inglese, ma ancora funziona
splendidamente per l’inglese accentato come
bene la tribù Remy anche se questa è una
dimostrazione del riconoscimento vocale
da Google tecnologia di apprendimento ripida come
questo quindi se hai per esempio se il tuo
il cliente ha un enorme call center dove
gli operatori di cui parla è New York
i loro clienti ogni giorno puoi semplicemente
registra quelle voci e metti quelle voci
dati all’API vocale per convertirli
conversazioni in testo facilmente e poi
puoi mettere un dessert a un testo colada
API linguaggio naturale per avere di meglio
capendo di cosa stanno parlando
circa o il significato di ogni frase così per
esempio inviando il testo a questi
API di linguaggio naturale che puoi ottenere
entità come i nomi del prodotto
nomi di servizi, ad esempio Google
ora si riconosce la maschera del mondo
riconosciuto come un mondo per popolare
organizzazione con un link di Wikipedia e
puoi anche fare l’analisi del sentimento
quindi in questo caso non lo sai
significato positivo o negativo nel
frase ma se ne raccolgono mille o
decine di migliaia di tweet da
Twitter o social channel puoi facilmente
metti da parte questi tweet o feedback sociali
per i tuoi prodotti o servizi e prova
capire cosa stanno dicendo
i tuoi prodotti o servizi sono loro
parlando di qualcosa di positivo
o qualcosa di negativo sul tuo prodotto o
servizio molto facilmente e anche tu
è ripetere l’analisi sintattica che puoi
capire facilmente di cosa sono la parte
il discorso per ogni parola come ora
evoluto o oggettivo così oggigiorno le persone
stanno ancora usando il database e molto
semplice il modello di corrispondenza per
analizzare i feedback degli utenti o l’utente
commenti ma mettendo quelli l’utente
feedback ai commenti degli utenti al naturale
API di lingua che puoi facilmente avere a
intuizione più profonda per quelli questi il
commenti o utilizzare una voce per esempio se
hai un nome prodotto o prodotto
nome del servizio, quindi puoi provare a contare
che tipo di obiettivo stanno usando
per il nome del prodotto o il nome del servizio
esempio questo prodotto è veloce o lento
o buono o cattivo puoi facilmente ottenere il
relazione tra quelle parole o
parte del discorso quindi queste sono le macchine
imparare aps in modo da non dover avere
qualsiasi macchina Linux parti per l’utilizzo
questi aps questi sono disponibili oggi e
puoi semplicemente mettere i tuoi dati in aps ma
quelli ApS non possono risolvere tutti i problemi
per esempio, sto diventando così tante
richieste da ospedali o medici
Istituto Istituto se il profondo
l’apprendimento può trovare il cancro da Shiki
o le immagini MRI un altro cliente dalla
I commercianti di coca cola statunitensi stanno cercando di usare il
piste profonde per riconoscere il
modello della casa automobilistica dall’immagine di ciascuno
classe quelli specifici del cliente o
i requisiti specifici del business non possono essere
risolto dall’API di machine learning
perché sono tutti generici
gradi del terreno per i quali il generale
dittatore quindi in quei casi lo consiglierei
per dare un’occhiata a tensorflow che
è uno strumento open source per costruire il tuo
proprio modello di apprendimento automatico personalizzato
dopo quante persone sono più difficili
tensorflow ah molte persone grazie così
molto sì
quindi cos’è tensorflow tensorflow?
software di apprendimento automatico open source
sviluppato da Google brain team e
in realtà questa è la macchina standard
apprendimento – utilizzato in Google per
sviluppando qualsiasi nuovo apprendimento automatico o
Servizi e prodotti AI e abbiamo
Salsiccia aperta a novembre 2015
il flusso del tensore è scalabile e portatile così
puoi iniziare a provare il flusso intenso
usando il tuo Mac o Windows o Linux
portatile così giù login tensorflow
è gratis chiunque possa scaricarlo
sul tuo Mac o Windows e prova a farlo facilmente
molto semplice il tipo ciao mondo
queste chiamate di esempio e se si trova il
prodotto tensorflow può risolvere il tuo
problema
quindi puoi iniziare a utilizzare GPU GPU singola
o due GPU o dieci GPU o 100 GPU da ottenere
molto più alta precisione soprattutto per
il riconoscimento dell’immagine e su larga scala
l’elaborazione del linguaggio e l’audio
il riconoscimento potresti trovare l’ allenamento
tempo necessario sarebbe molto più lungo
rispetto all’esecuzione del codice di esempio, ad esempio
nella prima dimostrazione che ho mostrato
abbiamo saltato il gioco insicuro che c’era
solo due tipi di dati X 1 e X 2 ma
ci è voluto un record per addestrare il
modello ma se hai pixel con for
esempio 10.000 pixel in una immagine quindi
sai se stai ancora usando il tuo
laptop o PC ci vuole sempre di avere
aspettare qualche giorno o forse settimane a
finisci tutto l’allenamento per il tuo
immagine dopo, ma se usi la GPU
Il GP è solitamente molto più veloce della CPU
sono 10 volte a volte 50 volte
più veloce di XI PU per allenare il
modello di rete neurale ma lei è così
costoso se si ha Q da una singola GPU
server con diretta una 2 o 4 schede GPU
costerà Rica
$ 10.000 sì è costoso in modo che sia
dove si può decidere di
affittare un tempo GPU dalla folla perché a
Folla di Google forniamo la GPU a circa
0,9 dollari all’ora per ogni GPU così tu
può solo affittare un’ora o due ore per a
pochi GPS e provare se un profondo
correre può risolvere il tuo problema su questo
antenna Pro è progettata per essere scalabile
quindi non devi cambiare nessuno dei tuoi
codice tensorflow un pò solo tu
devo cambiare la parte piccola di
lo stencil per il codice per ridimensionare il
allenamento puoi iniziare con il tuo laptop
quindi passare a una GPU e quindi spostare
alle decine o forse centinaia di GPS
senza cambiare nessuna parte importante del
il tuo modello tensorflow e una volta che hai
finito l’ allenamento il tuo modello è possibile
copia il tuo modello di apprendimento automatico su qualsiasi
dispositivi più piccoli come il lampone pi era
non un tracker del telefono Android o iOS
soprattutto di recente abbiamo annunciato a
luce di tensorflow che è un nuovo
la versione delle decine di lungo tempo è
appositamente progettato per i più piccoli
dispositivi come il Raspberry Pi o Android
così che per esempio se hai un
fabbrica dove non ne hai
internet quale abilità o cloud
accessibilità quindi puoi eseguire il tuo
sistemi embedded o Raspberry Pi all’interno
la tua fabbrica che gestisce il tensorflow
modella in modo che funzioni con un PI
o sistemi embedded in grado di rilevare determinati
modelli dai sensori IOT o da qualche oggetto
su un Bert Convy o cose del genere
così con quei benefici che ha la tensorflow
è stato il più popolare per la fiamma
imparare lo sviluppo nel mondo se tu
confrontato con gli altri quadri
come caffè o CNG k net net è
molto il quadro popolare e
ci sono così tanti clienti che lo sono
effettivamente usando tensorflow
incluso Airbus Dropbox eBay Qualcomm
e anche IBM sta impostando il flusso di decine
con i loro server hardware e persino il
Contadino cetriolo giapponese sta usando
tensorflow
quante persone sono più dure al riguardo
storia cetriolo contadino dispiace oh grazie
grazie mille
Ho scattato questa fotografia visitando lì
vomitare più fattoria penso che fosse come due
anni fa e hanno figlio questo ragazzo era
in realtà un ingegnere per l’embedded
sistemi fino a due anni fa forse a
tre anni fa sì e ha lasciato il
compagnia e ha iniziato ad aiutare i suoi genitori
continuare a coltivare ma ha trovato di più
compito noioso che richiede tempo
i coltivatori di cetrioli stanno cernendo i cetrioli
guardando le forme e i colori e
collegamenti e sua madre è stata in realtà
trascorrendo otto ore al giorno, lo faremo
lavoro di cernita dei cetrioli e di suo padre o
lui stesso non voleva aiutare lei o il suo
lo stato mentale della madre stava classificando
i mille documenti in nove
diverse croci così invece di aiutare
sua
Scarica il crawl del cancro fantastico
haha e ha preso novemila fotografie
di cetrioli e addestrato in intensivo
modello di ruolo con livelli D scelti dal suo
madre e lui ha la matita per il potere
al cetriolo sorter
era abituato a Raspberry Pi e tu corri
tensorflow su Raspberry Pi così quel modello
può schiantarsi dal cetriolo in nove
diverse croci incrociate a un’altezza piuttosto elevata
accuratezza e questo sistema costava solo
raka $ 1500 presenta duemila dollari
così, in pochi anni fa, se vuoi essere
questo tipo di alta precisione di alta qualità
sistema di condizioni immaginarie per l’ agricoltura
casi d’uso forse il tuo sistema è
l’integratore avrebbe una citazione
servire i $ 1,000,000 o centinaia di
mille dollari ma ora puoi solo
spendi duemila dollari per costruire questo
quindi la cosa è che il piano d
la tecnologia viene rapidamente trasformata in merce
avendo la comunità e l’ecosistema
con tensorflow se vai al
comunità rock intensiva o meetup o se
cerchi qualche tinsel tutti i problemi
o parole chiave e puoi facilmente trovare il
soluzioni per il tuo problema ma è
c’è ancora una sfida da portare
la tecnologia in produzione da risolvere
il vostro problema in particolare voglio
evidenziare il calcolo comparativo
avete bisogno di molto molto di calcolo di potere si
devo usare un mucchio di GPU questo
la soluzione è il data center del computer
questa è la più grande differenza di
Google affolla l’altro cloud
perché abbiamo progettato i nostri dati
centro come un enorme repower computer esso
ha migliaia di macchine ma io no
avere lo stress offif per spiegare cosa
questo centro dati il ​​computer che abbiamo
due tecnologie si continua
le tecnologie che si chiamano bulk Bo sono
G così Bo RG o palla è il Google
proprietario su tecnologie container noi
ho usato per oltre 12 o 15 anni
per il funzionamento di qualsiasi servizio Google
in Ricerca Google o Google Maps o Gmail
così in realtà ha fatto quasi tutto il Google
servizi come Google Google magic
Le Google Maps o Gmail sono di ricerca Google
non usare alcuna macchina virtuale
loro stanno facendo funzionare la directory in cima a
Macchine Pisgah e contenuta dal
eseguire il debug di sistemi continui che è uno
tecnologia l’altra tecnologia è nuova
alla rete non stiamo comprando
Router Cisco o router di ginepro più
sì, solo alcuni di quelli che compriamo per il
principali casi d’uso per il nuovo audit
costruire il data center che stiamo costruendo
il nostro switch personale fabbrica i router e
passa da zero e questo fornisce
la latenza del microsecondo per la combinazione
consolidamento delle risorse del server in
Centro dati di Google
così e il risultato è che molto
throughput più veloce o prestazioni su grande
elaborazione dati soprattutto per il deep
corso di formazione in modo da eseguire il
tensorflow sull’ambiente cloud di Google
puoi allenarti molto più velocemente
tempo quindi usando i pochissimi numeri di
GPS per esempio se usi 50 GPU tu
può finire il tuo allenamento 40 volte più velocemente
con 500 server puoi abbreviare il
tempo per 300 volte più veloce, quindi ciò che le persone
la maggior parte della corsa profonda
sviluppatori e ricercatori di spesa
pochi giorni o poche settimane per finire il loro
formazione per la rete neurale di Google
il motore del software ha solo speso sono decine
di minuti sai che lui o lei può solo
vai al ranch e torna al
ufficio poi i loro allenamenti hanno
finito già per quello un enorme
differenza un motivo enorme per cui Google ha
avuto così tanto successo nel dispiegare il profondo
far funzionare la tecnologia in produzione
non si tratta solo dello scienziato dei dati a
modello matematico ma anche se il cloud
rete ambientale e continua
la tecnologia è il fattore più importante
per portare la tecnologia in
produzione abbiamo anche progettato il nostro LSI o
chip personalizzati solo per l’esecuzione di decine
di Rod questo è chiamato processo di trazione
unità o CPU questa non è una CPU o GPU
questo è un segretario digitale personalizzato
progettato da zero da Google
gli ingegneri e le sue prestazioni sono
quasi equivalente all’ultimo
supercomputer in modo da poter dire che
Google ha costruito il nostro
supercomputer solo per l’apprendimento profondo
allenamento e predizione e ora noi
esternalizzare questa potenza di Google Cloud
agli sviluppatori esterni come prodotto
chiamato ml ranging o machine learning
motore che è una piattaforma completamente gestita
per decine di rotoli che così puoi tutti voi
è necessario caricare il proprio tensore
flusso grafico al cloud e Google lo farà
prenditi cura di tutta la parte più difficile o
la parte critica
come questo sarà la formazione come
costruire su cluster GPU per questo diritto
scala di allenamento distribuito o iper
sintonizzazione dei parametri in modo da dare un’occhiata a
questa è una dimostrazione che viene chiamata
bene G or ng questa è una integrazione di
salsa tensorflow Emeril motore combinato
con velocità C API e Ranga JP I naturale
modificato, andiamo, dai, dai
noi e la gomma abbiamo identificato la telecamera
gomma di anguria extra lunga durata ora
telecamere Quindi questo è quello del
anno totale possibile soluzione totale e
in realtà ho che nel progettato
per questa dimostrazione da Google i / o
e la parte hardware costa solo record
$ 3,000 perché ho scelto di usare il
ah molto economico e poco costoso robot per
la parte software che ho chiesto alla nostra
venditore per affrontarlo ed è costato
solo Degas $ 13.000 è abbastanza
economico e hanno ottenuto questi sistemi
entro 20 giorni in modo da poter avere questo tipo
di G l’apprendimento profondo allo stato dell’arte
il sistema di immaginario cosciente con l’interno
registrare 30 o $ 40.000 entro un mese
Lasciami
va bene
e lascia che ti mostri un altro esempio di ciò
così chiamato ciò che è interrogato in modo intelligente questo
è un’integrazione del data warehouse
e l’apprendimento automatico di solito dati
magazzino come Google Bigquery o il
un redshift di de Bracy o qualsiasi altro dato
magazzino non può gestire l’immagine o il
altro contenuto in modo che possa eseguire solo SQL
ma combinando l’apprendimento automatico con
questi data warehouse puoi ottenere molto
approfondimenti più approfonditi sul data warehouse
domande perché ho messo questo ISM ok questo
è un esempio della somiglianza dell’immagine
ricerca in modo da poter scegliere una delle chiavi
immagini da cercare Ho scelto il
l’elefante allora il bigquery sta funzionando
e interrogare contro 1 milione di immagini su
trova immagini simili e ti preghiamo di notare questo
Non è alla ricerca di un elefante è questo è
non basato su etichetta o su indice
la ricerca di questo è in realtà il confronto del
immagini per immagini per 100 immagini o 1
milioni di immagini in modo da poter ottenere tutto
queste immagini simili con lo stesso colore
e forma e trame e motivi su
immagini e questo è un solo esempio per
le immagini ma puoi anche applicarlo
tecnica per qualsiasi tipo di ricontattarti
può definire il vettore di funzionalità per
esempio i prodotti o gli utenti Pro
lingue naturali tutto ciò che puoi
definire e impostare determinate funzioni come a
vettore è possibile utilizzare il data warehouse per
esaminare due somiglianze di uguale gravità
ricerca così finalmente ne mostro direttamente alcuni
casi d’ uso del machine learning nel
il mondo reale c’è già stato e
alcune imprese e aziende che ha
stato usando il flusso tensoriale e ml che vanno in
PLC o sistemi di produzione questo è un
progetto chiamato pesca globale guardare questo
è un progetto per o prevenire la pesca eccessiva
guardando quante navi e navi
in ogni oceano sta facendo una pesca su quello
e il prodotto sta monitorando tutto il
posizione GPS in tempo reale di
centomila navi in ​​ogni autunno
e raccogliere quei GPS in tempo reale
posizione su Google Cloud Storage
alcuni pre-elaborazione e quindi usi
tensorflow
e motore di apprendimento automatico da estrarre
alcuni modelli da quei movimenti di
Posizioni GPS in modo che il sistema può
dicono che si tratti della nave o le navi
fare pesca a strascico o pesca con palangari
o percorsi e pesca ad alta precisione
e in realtà questo progetto è stato in grado di
mettere un po ‘di volo su quelle navi violate
o aziende utilizzando questi dati
modelli elaborati di riga
Il QP è uno dei cibi principali
produttore in Giappone sono stati
lavorazione che produce alimenti per bambini e
la preoccupazione principale è la qualità del
ingredienti così stanno usando il molto
cubetti di patate di alta qualità ma poi il
il problema più difficile o come questo
la sfida per loro è la definizione del male
patate perché stanno già usando
l’alta qualità ma i cubetti di patate così
è molto raro trovare ingredienti cattivi
forse alcuni cubetti in un giorno così per il
i sistemi di conservazione delle immagini esistenti sono
macchine per fabbriche è molto difficile
per aver trovato quelle cattive patate così
il felice ha usato un potere umano
lavoratori della spedizione che guardano meglio
convincere tutto il giorno un errore nel trovare
quelle cattive patate invece hanno
recentemente introdotto le decine di
basato sul ruolo del sistema di riconoscimento dell’immagine
in modo da poter sentire il suono della
dimostrazione
questo suona come Super Mario Brothers
ma in realtà non lo è
così fa la campana di Super Mario Brothers Rex
il suono ti dice la posizione del loro a
confronta dove vedrai il male
la patatina arriverà così ora prima
gli operatori umani è molto più facile
oh non ci sono più monomeri, grazie
ti dispiace per quello , ora è molto
molto simile ai compiti di attesa per l’umano
lavoratori e sono stati in grado di ridurre il
il lavoratore umano è costato un tre significativo
kakora sta usando il tensorflow per l’immagine
riconoscimento per i numeri di serie in
il tappo della bottiglia in modo che siano il
l’applicazione per smartphone può richiedere a
fotografia del tappo della bottiglia e
riconoscere i numeri in un cap da applicare
per alcune ore o o regali fantastici
e il punto interessante di questo uso
caso è quello come ho detto macchina
l’algoritmo di apprendimento non è perfetto per te
non posso ottenere la massima precisione del 100 percento
commette errori ma sta lasciando
consumatori che risolvono questi errori e entro
ottenendo le immagini reali e corrette
etichette dai consumatori che sono lì
in grado di migliorare continuamente il
accuratezza usando il feedback di
i clienti questo è l’ultimo caso d’uso
la dimostrazione da organo alternativo lo è
la più grande asta di curve usate in tempo reale
servizio in Giappone che stanno gestendo
5 milioni di curve in un anno ma il
la più grande sfida per loro è quella di
classificare le immagini così tante immagini
devi caricare 20 immagini diverse per
ogni macchina per entrare all’asta e it
ci vogliono 15 minuti per gli operatori umani
classificare quelle immagini se è un
immagine presa dal lato anteriore posteriore
destra sinistra o immagine del pneumatico o
volante e così via così hanno
ha costruito la possibilità di usare un’auto basata sulle frodi
la sua immagine fuoco erba e usando questo
la tecnica chiamata transfer learning
sono stati in grado di ridurre il numero di
il set di dati di allenamento in modo che tu possa
devi solo preparare 200 immagini per auto
modello per ottenere alta precisione e anche
inizialmente stavano usando solo un singolo
istanza su una folla per addestrare il modello
ma introducendo il MA che va e
questo sarà l’allenamento che sono stati in grado
per ottenere molto più veloce 86 volte più veloce
tempo di allenamento proprio come Google
gli ingegneri stanno facendo così il risultato finale
per gli affari è quella velocità molto più veloce
per la classificazione che erano in grado di
ridurre il tempo di funzionamento da cinquanta
questo è da quindici minuti a tre minuti
la vera dimostrazione del sistema
quindi stai caricando in 20 diversi
immagini per ogni singola auto da
lato anno diverso, quindi il sistema può
inizia a classificare le immagini e il
il punto più importante di questo progetto è
che l’organo non aveva alcuna competenza
di machine learning o deep learning
quando hanno iniziato questo progetto ma
perché tensorflow
ha una comunità molto matura e
ecosistema in modo che fossero facilmente in grado di
trova il miglior partner della macchina
esperto di apprendimento che Davidians di tutti
hanno fatto esperienza e hanno speso
circa 3 settimane per workshop e formazione
e il trasferimento di tecnologia da quelli
società esperta al loro dipartimento IT così
ora il sistema di produzione è in corso
sviluppato da solo con l’organizzatore
dipartimento in modo da non dover assumere un
scienziato di dati molto costoso da costruire
questo tipo di sistemi quello che devi
fare è andare al centro per la comunità
e le opere passano un po ‘di tempo con quelle
esperto di dati scientifici e imparare il
la tecnologia da soli hey così in sintesi noi
fornire due diversi tipi di
prodotti di apprendimento automatico uno è il
Amero api che potrebbe essere usato oggi
senza alcuna esperienza di apprendimento automatico
o sperimenta che puoi semplicemente avvicinarti al tuo
proprio contenuto e puoi anche combinare
questa è una API mirror con la tensione
rollbase per personalizzare personalizzabile
soluzione di machine learning così abbiamo fornito
diversi come open-source
– così puoi solo iniziare il download
tensorflow al tuo laptop – o al tuo
dispositivi on-premise o qualsiasi altra folla
e se trovi che è utile puoi provarci
eseguendolo su scala molto alta con
attuale motore di apprendimento automatico combinato
con l’altro data warehouse o storage
o sistema di elaborazione batch ok questo è tutto
grazie mille grazie, ho un
numero di domande del pubblico
qui partiamo con un compito facile
ok , l’API vocale riconosce gli altri
le lingue permettono di imparare l’inglese, lo penso
supporta oltre 80 lingue incluso
dialetto sì
se uso le API online il cloud
servizi con i miei dati
hmm vuol dire che Google ha quindi
l’accesso ai miei dati è fantastico
domanda e ho fatto questa domanda
tante volte come ho detto no perché questo
sono tutti i servizi cloud di Google e Google
il servizio è un servizio per lo spot
clienti aziendali e ha il
termini e condizioni che affermano che siamo
non portare i dati dei clienti dei clienti
in modo che significa che è possibile non lo fai noi siamo
non allenare il nostro modello con il tuo
i dati dei clienti invece stiamo usando
dati del consumatore , ad esempio se si utilizza il
Google Ricerca immagini è gratuito
servizi ai consumatori quindi ha un termine e
condizioni che Google potrebbe utilizzare i tuoi dati
per la formazione dei nostri dati o per i nostri
sviluppo quindi usiamo i dati
acquisito dai servizi di consumo ma
non stiamo usando in nessuno dei tuoi dati
si stanno avvicinando a quegli ABS che
sono disponibili i binding della lingua
per tensorflow Java C sharp adesso –
solo il percorso di Python e alcuni di questi
sheesh preferisce sì ma pitone di Maria
da solo ne ho un po ‘
qualsiasi domanda qui va bene per la maggior parte di loro
cado in quei tre che ho già
chiesto così da sopportare con me è un semplice pozzo
forse non è così semplice in realtà parli
sul risparmio energetico nel data center
si
fai a sapere che i parametri che fanno
reagisci effettivamente come i dati meteo
Non ne so molto dei dettagli di
i sistemi perché detto costruito dal
profonda squadra mineraria ed è una specie di
grave incidente di informazioni, quindi non lo siamo
esponendo quali sono i parametri che è
in realtà guardando ma posso dirlo
stiamo guardando le centinaia di
caratteristiche o attributi di tendenza nel tuo
modello di rete penso che sia okay
grazie mille grazie mille
[Applausi]

Please follow and like us: