Press "Enter" to skip to content

GOTO 2018 • Making Microservices Micro with Istio and Kubernetes • Ray Tsang


[Musica]
grazie a tutti per essere qui e
grazie per avermi ospitato a Berlino mia
il nome è Ray Sono uno sviluppatore avvocato per
la piattaforma cloud di Google ce ne sono due
le cose che faccio per lo più sono numero uno
portare alcuni dei più recenti e migliori
e quella tecnologia che Google deve
offri entrambi su Google Cloud all’aria aperta
fonte per gli sviluppatori di tutto il mondo
ma mi piace anche assicurarmi che noi
avere uno dei migliori sviluppatori
sperimenta e lavora con la promessa
squadra per rendere l’esperienza dello sviluppatore
meglio per questo motivo ho anche iniziato
il progetto denominato nuvola GCP primavera è
uno dei modi più semplici per provare Google
nuvola con uno stivale primaverile e primaverile con
gli antipasti che abbiamo sono anch’io un
contributore ad alcuni degli open source
progetti tra cui J hipster un fantastico
strumento di generazione di applicazioni e ho
il mio progetto personale è comunque differito
se avete domande qualsiasi feedback
su questa sessione non esitate a contattare
io su Twitter
Saten ismo e se hai bisogno di ottenere di più
informazioni con tutto il codice semplice di
gli esempi che sto mostrando oggi
può controllare il mio sito web lo standard
ISM che sto bene così oggi ci sono
Non parlerò della serie di Micra
servizi o se dovresti farlo
o no, dovresti farne uno tuo
scelta comprendendo l’architettura
e i suoi benefici e problemi e
spero che tu abbia preso la decisione
risolverà il tuo problema e non
necessariamente generalmente più problemi
giusto quante persone qui hanno già
deciso di andare con i micro servizi
architettura ok abbastanza poche persone ok
si, quindi spero tu sappia che sta andando
per aiutarti a risolvere anche i tuoi problemi
ma una delle prime cose che sei
andando a vedere quando dici di entrare in un
l’architettura dei micro servizi è quella
piuttosto che avere un tradizionale
monolite dove hai una sola applicazione
e più istanze fuori da quello
app per gestire ora abbiamo più e
più servizi che devi
gestire e ognuno di questi
servizi che devi distribuire multipli
più volte hai bisogno di più
istanze e il numero di
le istanze in cui hai la gestione saranno solo
sai aumentare di molto, giusto e così
uno dei primi problemi che sei
andando a vedere, naturalmente, è ciò di cui hai bisogno
un modo per distribuire e gestire il tuo
applicazioni che devi essere in grado
ragazzo centinaia di istanze potenzialmente
a un intero gruppo di macchine
tradizionalmente come nelle applicazioni Java
Generalmente distribuiamo un’applicazione
server per macchina ma con questi micro
servizi che conosci con centinaia di loro
non avrai centinaia di macchine per
eseguilo dovrai trovare un modo per
potenzialmente li stanno comprimendo in meno
e meno risorse fisiche e ora tu
condividere le risorse con
più istanze della tua app proprio così
allora devi occuparti di isolare il
La CPU utilizza e isola la memoria
utilizza in modo che non calpestano ciascuno
le dita degli altri e se alcuni di questi
le istanze vanno via o hanno problemi con te
bisogno di un modo automatico per riavviarli
e ovviamente devi avere a che fare con
networking di tutti questi anche loro
può essere complicato comunque grazie a
alcuni degli strumenti che possiamo effettivamente
gestire realmente le implementazioni
facilmente oggi se stai usando una piattaforma
come servizio è un modo molto semplice per
fallo semplicemente distribuire il codice e il
il servizio di piattaforma ti aiuterà a scalare
li fuori ma puoi farlo anche con
contenitori in continua orchestrazione
e kubernetes è uno dei progetti
quello era open source un certo numero di anni
fa e ora che è quasi un modo de facto
per le persone a gestire il loro contenitore a
appuntamenti su scala come te
è dichiarando una configurazione
dicendo che cosa vuoi
distribuire e quante istanze si desidera
e quindi dichiarare i modi che si desidera
verificare lo stato di salute di questa applicazione
incriminare si prenderà cura di tutto il resto
per te e distribuirlo su un cluster
di macchine e ad alto livello questo come
Funziona così prima di tutto tu continua
scrivi la tua domanda, basta spingila
in un registro centralizzato da qualche parte
che può essere scaricato da tutti
le altre macchine nel tuo cluster
configurazione che hai che scrivi
sarà spinto al padrone di un criminale
il nodo verrà archiviato come documentazione
negozio di valore chiave o qualcosa del genere
e poi dietro le quinte c’è a
programmatore che fondamentalmente funzionerà
un ciclo in cui verrà verificato se
lo stato desiderato che è stato
configurato nel file corrisponde al
stato attuale in cui è effettivamente in esecuzione
le macchine e se non è la stessa cosa
allora lo schedulatore dirà oh
hai bisogno di due istanze di zero
in esecuzione
Ho bisogno di eseguire altre due istanze come fare
Lo faccio che sta andando a chiedere le macchine
e dove puoi effettivamente eseguirlo, fallo tu
in realtà hanno abbastanza capacità giusta e
se lo fai, lo istruirai
macchina per scaricare l’immagine del contenuto
e avvia l’istanza come tutti questi
le cose già fatte sono queste
siamo in grado di implementare e gestire il nostro
i micro servizi oggi sono i più importanti
cosa che qui però voglio che tutti
portare via è quello attraverso gli occhi di
comunità quando voglio farlo
dispiegamento Ho uno stato di desiderio e io sono
utilizzando fondamentalmente un documento ben definito
usando nomi e terminologie
criminali capisce che lo sto scrivendo
in un file in cui posso effettuare il check-in
ottenere o un repository di origine attraverso il
occhi delle comunità quando sto schierando
questo ho a che fare con l’ intero cluster
come una singola unità ma non individuale
macchine che sto usando anch’io
tipi ben definiti e API da dichiarare
il mio spiegamento che astrae tutto
altro a livello di infrastruttura quindi
Ho a che fare con la terminologia al
i criminali livellano ma se ne ho bisogno
distribuire un bilanciatore del carico piuttosto che
capire quale sia il vero bilanciamento del carico
Voglio usare Posso solo definire e utilizzare
il nome di un servizio che sta bene
definito nelle comunità e dietro il
scene un plug-in o un programmatore
controller in realtà lo trasformerà
servizio in un vero bilanciamento basso e
per questo non importa quale
nuvola su cui stai correndo su quale fisico
l’infrastruttura su cui stai lavorando è possibile
trattare con le cose a livello di applicazione
con kubernetes in questo mondo definito
API e dietro le quinte ti faremo
sanno farne una realtà e che è
l’ astrazione dell’infrastruttura
comunque voglio andare solo oltre
questo e dire che le comunità se tu
pensa davvero a come funziona
quasi come direi ma è quasi
come un sistema ERP o un contenuto
sistema di gestione in modo che tu bene il
documento hai ragione, immagina se tu
sono nel sistema ERP che dici hey ho bisogno
di ordinare due widget e entrare in quella
registra nel tuo sistema quello è il tuo
stato desiderato
e dietro le quinte qualcuno lo farà
in realtà dico oh, ho bisogno di ordinare due
widgets
lasciami andare avanti e capire come
ottenere quei due widget comprarlo e poi
spedirlo al magazzino e aggiornerò
il record e dire che è fatto è molto
molto simile a incriminare se si pensa
in questo modo hai una risorsa
definizione che è ben definita
annunciato e API in modo che ad Cribben dice
definito che questo non definisce che sia
il nostro patrimonio ho bisogno di avere due istanze
sulla mia app lo spinga nella comunità
il documento di sistema è memorizzato piuttosto che
avere una persona fisica – fare in
realtà hai un controller uno script
o un’applicazione che sta solo ascoltando
per questa richiesta di documento e poi
spingendolo e trasformandolo in realtà
giusto voglio che tu tenga questo in mente
fondamentalmente per il resto di questo discorso
perché questa definizione di risorsa nel
loop di controllo che sta correndo dietro il
scene e trasformare le cose in realtà
è davvero molto importante per
tutto ciò che fai all’interno di Kubernetes
e tutto ciò che stiamo facendo
ognuno fa e / o se si sposta il
livelli di astrazione in futuro
su nativo chiave va bene così l’altro
cose a cui sei andato incontro
Ovviamente un appuntamento da piselli è quello
ora piuttosto che avere il sai a
la tua applicazione in te lo sa potenzialmente
librerie per essere in grado di comunicare
memoria e ora devi comunicare
attraverso la rete e, naturalmente, quando
stai comunicando attraverso il fisico
rete si incontrano un paio di problemi
bene il numero uno che devi capire
in quale lingua vuoi parlare
i servizi e tu sai che questo è un
cosa di tendenza per il passato tu lo sai
Non so da 15 anni in distribuzione
prima i sistemi avevamo il binario
protocollo con te conosci il nostro PC e il nostro a9
e poi abbiamo avuto qualcosa di simile a XML quando
in sapone e poi ora abbiamo riposo e o
JSON su HTTP e, naturalmente, ogni volta
abbiamo qualcosa di nuovo, c’è qualcosa
non così bene , e ora siamo
tipo di vedere uno spostamento indietro nel nostro PC
perché potenzialmente può essere di più
performante in Google il linguaggio che
usiamo è chiamato stubby è il binario
protocollo che usiamo internamente ma tu
può anche trovare il progetto open source
per quello che è
il nostro PC in Google facciamo 10 a 10
Chiamate RPC al secondo, quindi dovevamo
assicurarsi che la lingua che abbiamo
hanno parlare tra i servizi sono
il più efficiente possibile, ma la destra
altro problema, naturalmente, è che ora
sei vincolato dai limiti fisici di
la tua rete e probabilmente non è in nessun posto
vicino alla velocità della luce per quella materia
giusto abbiamo a che fare con la latenza
non sarà nel processo di memoria
più così devi aspettare il
risposta per tornare devi aspettare
per la serializzazione e
deserializzazione dei tuoi dati e anche
che devi capire come caricare
saldo al back-end di cui hai bisogno se
il back-end va via, lo farai
gestire i fallimenti di quelle cose come
beh ci sono così tanti potenziali problemi
che potresti incontrare con il networking
ora sulla punta sul tema del carico
bilanciamento però per il tempo più lungo
che ho lavorato nel
società di imprese il bilanciamento aveva
significa sempre solo una cosa per me quale
è stato eseguito rubando il giusto equilibrio
ogni volta che qualcuno dice di impostare un carico
bilanciamento abbiamo creato un pettirosso
immobilizzatore ma è quello in realtà il
giusto bilanciatore basso per usare una cosa
mai veramente pensato fino a quando io
unito a Google era che ciò che in realtà
definisce il carico giusto è il carico per
richiedere o fa la richiesta in realtà
genera più carico quindi qualcuno richiede il mio
junior un piccolo carico e alcune richieste
potrebbe generare carichi più grandi proprio così
è qualcosa che devi davvero
pensare a come si vuole realmente
a che fare con bassa bilanciamento e quindi ora siamo
anche la domanda se tu
utilizzare il servizio di bilanciamento del carico o il server sul lato client
bilanciamento del carico laterale ok o visore proxy
fondamentalmente in passato penso di essere io
non so se qualcuno qui è passato
la tua separazione dei servizi orientata
architettura in cui hai una configurazione ESP
nella tua organizzazione chiunque si, bene
non più
non più così così fondamentalmente
a volte potrebbe essere necessario instradare tutto il
traffico verso un proxy centralizzato o alcuni
tipo di proxy e quindi il proxy lo farà
gestire il bilanciamento del carico per voi o
a volte devi fare i clienti a
piccolo equilibrio perché vuoi
evita il salto extra al proxy giusto
tuttavia ci sono sempre pro e contro
ad entrambi avvicinarsi se stai facendo un
bilanciamento del carico lato client cosa anche io
significa che tu
probabilmente vorrà avere il pieno controllo
sul cliente perché se mai lo vorrai
spostare il traffico dal client da un
vecchio servizio a una versione più recente di
servizio di come è possibile in realtà farlo
in un sistema di bilanciamento del carico lato client che hai
in qualche modo aggiornare il registro che abbiamo
per riconfigurare il carico lato client
bilanciamento dell’applicazione e poi tu
ho fatto il rollout su questi nuovi su questi
applicazione lato client – al fine di
approfittare dei nuovi servizi
tuttavia non è sempre possibile se
non hai il pieno controllo in cui
caso devi davvero pensare a te
conosci il tuo bilanciamento del carico lato server e
come ridimensiona quello giusto così ci sono
un sacco di problemi diversi devi
considerare oltre la distribuzione che
le comunità possono prendersi cura di te
un’altra cosa sui micro servizi è
ora conosci i servizi del server
forse hai del codice in catena così tu
può essere solo konley vedere la comunità o
qualcosa del genere e se dovunque
lungo quella catena ha un problema di latenza
un problema di prestazioni o ha qualche tipo di
interruzione che è necessario conoscere e individuare
esattamente quale sia la questione altrimenti
il problema si propagherà di nuovo al
in alto e sarà molto molto difficile
capirlo e per questo motivo si
bisogno di un qualche tipo di modo per osservare il
stato della tua intera architettura e in
la maggior parte dei casi la documentazione non è sufficiente
perché la documentazione è di solito
obsoleto dal momento in cui lo scrivi o
che conosci un paio di mesi dopo è così
non esattamente come la tua produzione
l’ambiente funziona così in qualche modo tu
bisogno di un modo di vedere in esso ora per la
Il mondo Java ce ne sono molti
strumenti open-source per fare alcuni di questi
cose per prendersi cura di questi
preoccupazioni trasversali giuste e queste
sono alcuni degli strumenti popolari in particolare
lo stack OSS di Netflix, ad esempio per
bilanciamento del carico lato client che abbiamo
nastro e in ordine per il lato client
bilanciamento del carico per capire quale
backends sono loro hanno a sapere
o registrati e otterrai i dati
da un registro centralizzato in questo caso
forse Eureka o console o qualcosa del genere
altro e poi per la gestione dei fallimenti di
chiedi di avere qualcosa di simile
storia che fa il circuito
e quindi per capacità possiamo rintracciare il nostro
richieste per tutta la vita
ciclo di vita di quello e quindi possiamo memorizzare
quello che le tracce in Zipkin o Jager
e così via e così via e ci sono
molti molti strumenti open source che possiamo
uso
alcuni di questi strumenti che dobbiamo mettere
direttamente nel tuo micro servizio così tuo
servizio in aggiunta al business
logica che devi gestire quale
dovrebbe essere simile a una singola unità
probabilmente molto piccolo si spera ma
tuttavia devi anche aggiungere tutto
questa logica lato client per trattare
con alcuni di questi tagli trasversali
preoccupazioni e ora il tuo servizio di micro può
non sembrano più così micro in realtà
diventare potenzialmente un servizio di micro destra
anche se stai solo scrivendo il
piccolo pezzo della logica aziendale ma dentro
la tua applicazione che stai effettivamente trattando
con tutte queste preoccupazioni trasversali
e poi devi anche correre e gestire
tutti questi altri componenti che rendono
l’intera architettura di lavoro a destra in modo da
potrebbe essere necessario eseguire il gateway nella parte anteriore
è necessario eseguire cortana e Prometeo
nel registro di servizio e così via e così via
avanti e all’improvviso sei tu
so solo per eseguire alcuni servizi che siamo
guardando te lo sai e molti altri ancora
che si deve eseguire questi circostante
servizi per farlo
operativo e ognuno di questi grigio
scatole sono anche qualcosa che si deve
continua a correre così questi sono altamente
disponibile quindi è necessario gestirne due
loro o se non di più giusto così questo può essere
un po ‘semplice e facile. Se ancora
stai usando un vero strumento di costruzione
e se stai correndo su una singola pila
e uno dei miei stack preferiti è di
Naturalmente una cabina primavera e primavera perché
Sono uno sviluppatore Java lo fanno molto
molto semplice e facile da fare penso che
per la maggior parte delle persone sebbene il
il problema sorge quando non sei su un
pila singola solo una domanda veloce a
tutti qui quante persone qui in a
organizzazione o usi solo un singolo
impilare per tutti i tuoi interventi
applicazione sì una persona sì molto
fortunato ma immagino che il resto di voi abbia ragione
lì la maggior parte delle persone non ce l’hai
più di due e uno sono uno su due
sì più di più di cinque forse sì
alcune persone hanno più di cinque giusto così
quello che è successo è per ognuno di
questo stack che hai a che fare con te
devo tornare indietro e capire come fare
avete a che fare con tutti questi trasversale
Preoccupazioni che faccio io proxy do do do
bilanciamento delle monete delle monete come faccio a fare un errore
tolleranza come faccio osservabilità e
per ognuno di quelli stack o
lingue che devi andare a trovare
potenzialmente le soluzioni simili che
Java ha e forse hanno bisogno di trovare
soluzioni analoghe per il vostro stack come pure
che per quella lingua forse lo sei
usando non il tuo strumento a molla ma–
forse stai usando più di uno
quadro che forse stai usando sai
Java e no allora sai go e PHP e
Python qualunque cosa e questo diventa sempre così
difficile se si vuole avere tutti
queste cose funzionano bene nel tuo
architettura di micro-servizi
ora alla fine della giornata anche se penso
che come sviluppatori come me, oh I
vuole veramente a cuore è che ben
prima di tutto voglio assicurarmi che
le preoccupazioni trasversali non sono prese
cura di
ma se sto solo facendo una chiamata a
servizio dovrebbe essere facile come sai
semplicemente facendo una chiamata HTTP Y o G RPC
chiamare o dovrebbe essere per chiamare al
servizio di destinazione e, auspicabilmente, quelli
le preoccupazioni saranno anche curate ma
questo è il modello di programmazione che noi
avere oggi tranne che tu sai tutto di
questi componenti sono davvero solo tu
conoscere l’ aggiunta nelle vostre librerie client
quindi questo è dove ogni cosa entra o a
partita di servizio quindi la chiamerai
praticamente al livello molto alto
è così che posso pensare a questo
quando gestisci i tuoi micro servizi
in un servizio corrisponde a ogni richiesta
fare sta per scorrere attraverso il FRA
rottura della maglia che so che suona
molto astratto e quasi sentire come
Sto parlando , sai che ci stiamo muovendo
nel tessuto dello spazio-tempo ma questo
sarà chiarito in un secondo e noi
capire esattamente come funziona correttamente
quindi ognuno fa se pensi a questo e
se lo paragoni alle comunità giuste
cribben Ares è stato progettato per funzionare e
gestisci i tuoi contenitori
API e terminologie ben definite e
questo può farli diventare realtà
ora HBO è progettato per gestire il tuo
servizio per il servizio di comunicazione attraverso
alcune terminologie ben definite pure
e puoi scrivere un file di configurazione
per ogni campo definire cosa è come
è che vuoi i servizi a
comunicare e l’ Eastfield farà
quello e diventa una realtà ed è il
progetto open source che era aperto
fonte originariamente da Google IBM e lyft
ed è stato progettato per funzionare in modo diverso
ambienti inclusi aziende ma
anche oltre
il nostro self criminale è solo quello per il
la prima versione si concentrava davvero
sulla gestione di questo ultra lamantino prima ma
questo può effettivamente funzionare in ambienti
al di fuori delle comunità e ora se
pensi agli anni ’80 urbani nel modo
funziona proprio tu hai il
API ben definita in cui lo si inserisce
comunità che è ciò che chiamiamo il
punto di controllo un piano di controllo e poi lo faremo
prendi quella configurazione in te
creare una realtà che è ciò che codifichiamo
il piano dati o il piano di servizio o
il percorso dati giusto quindi se vuoi un
bilanciamento del carico si scrive la definizione
lo mandi al piano di controllo e noi
creerà un servizio di bilanciamento del carico fisico
diventa il percorso dati e per quello
motivo se il piano di controllo va giù
il percorso dati sarà ancora lì
solo tu perdi il controllo su come
gestire questo percorso dati fino al controllo
gli aerei escono così Ethio è allora il
piano di controllo per il servizio al servizio
comunicazione e il modo in cui possiamo fare
è permettendoti di scrivere piuttosto
che scrivere i descrittori di distribuzione
possiamo permetterti di scrivere il routing
descrittori o in un circuito che si rompe
descrittori e quindi attraverso il controllo
piano configurerà le tue applicazioni a
comportarsi in quel modo così lo vuoi
hai nella tua configurazione e il
il modo in cui lo stiamo facendo è un paio di
passi o il numero uno è quello piuttosto che
avendo alcuni di questi lato client
le biblioteche sono incluse nel tuo
applicazione spingiamo tutta questa logica
in un proxy dedicato che è specifico
al tuo servizio va bene così tutti questi
cerchio rottura governa i clienti che
caricare i bilanciatori potenzialmente l’abilità
per spingere le tracce verso i tuoi traccianti
tutta questa logica può essere spinta in a
proxy dedicato quindi lo portiamo via
dalle librerie client dell’applicazione
e lo spingiamo a un componente separato
codifica il proxy e questo proxy è basato
su un proxy C ++ che era originariamente
scritto da ascensore a destra non fa a
molto senso da togliere sai 80
megabyte off jar e darti un 300
megabyte ESB
quindi questo è in realtà un proxy molto piccolo
giusto così stiamo portando via alcuni dei
vasi nella spinta
in un proxy e questo è un piccolo proxy
è fatto per essere molto efficiente e
è anche un battle-tested
in un ambiente di produzione e questo
il proxy può fare molte cose per te
giusto le cose a cui abbiamo pensato
da aggiungere alla nostra applicazione lato client
questo proxy può effettivamente fare tutti questi
cose così questo proxy può basso equilibrio per
questo proxy può eseguire la terminazione TOS
questo proxy può gestire l’interruzione del circuito
e controlli sanitari e così via e così via
ora alcuni di questi potrebbero suonare un po ‘
sai come se dovessi pensare a
il vecchio giorno vedendo i servizi
architettura orientata al servizio alcuni di
queste cose potrebbero sembrare come una SP
giusto bus di servizio aziendale e ma io
in grado di garantire venite in T che
non è il caso giusto, perché
sarebbe un po ‘spaventoso
conosci ESB il problema è che loro
ha anche promesso di gestire molti di questi
cose in quei percorsi e tu sai tutto
di queste cose a cui puoi candidarti
l’ ESB
ma nella distribuzione ESP tradizionale
hai un singolo o un paio di ESP
istanze e oh il traffico viene instradato
a questo e gli ESP diventano improvvisamente
un collo di bottiglia per tutto il tuo solare
implementare ora il modo in cui ogni affare
funziona è che effettivamente distribuire un proxy
istanza per ognuno dei tuoi micro
istanza di servizio che cosa significa questo
piuttosto che avere uno o due proxy se
hai mille micro servizi tu
ottenere un migliaio di proxy nel tipico
distribuzione predefinita in modo che ognuno dei tuoi
l’istanza del servizio micro avrà un proxy
lungo la strada
quello che stiamo facendo è usando il
modello di sidecar che tipo di
introdotto intranet facilità con voi il
concetto di un pod così fondamentalmente possiamo correre
il tuo contenitore di applicazioni e poi
attaccare un contenitore sidecar proprio accanto a
e insieme sono conosciuti come un baccello
e questa è la singola unità che
le comunità possono programmare lo stesso
risorsa fisica quindi quando esegui un
contenitore sidecar all’interno del pod cosa
questo significa che il nostro seme attuale è
pianifica questo proxy proprio accanto al tuo
applica il tuo servizio sullo stesso
condivisione delle risorse fisiche uguale
interfaccia di rete e anche la condivisione del
lo stesso valore ammonta se vuoi e cosa
Significo anche che quando il micro
servizio a rende il codice al proxy è
effettivamente fatto
attraverso un canale locale non è così
in realtà non passerò oltre il fisico
rete sarà solo un po ‘
ottimizzato dal kernel, quindi lo farà
essere indirizzato direttamente al proxy attraverso
le reti locali a posto e quindi ciò che
significa anche che quando lo distribuiamo
nel nastro d’inchiostro Ares i descrittori
che scriviamo possiamo spingerlo a
comunità e loro ricordano il
il ciclo di controllo e come il controller
prende che i descrittori e facciano
ciò che rende quella realtà
che configuriamo questi proxy è vicino
sai quindi scrivere questi file gialli
potenzialmente e poi spingendo dentro
kubernetes e il controller è noto
come lo faranno Pilato e Pilato di Pasqua
leggi questa configurazione e poi
propagare la configurazione al
indirizza il modo in cui i proxy possono
capire bene e per questo motivo il
i proxy sono anche intercambiabili oggi
stiamo usando l’inviato di default è anche
possibile potenzialmente utilizzare altro
i proxy anche perché ognuno fa
pilota è quello che tradurrà il
configurazione che abbiamo e poi
spingendolo fino alla configurazione
che ognuno di questi proxy non lo farà
stare in piedi piuttosto che usare un po ‘
meccanismi di scoperta del server aggiuntivi
o configurazione centralizzata
meccanismo di configurazione, se lo sei
correndo all’interno di comunità poi alcuni
dei meccanismi già forniti da
l’ambiente delle comunità già così
per separatori possiamo usare la community di utilizzo
servizio per la configurazione possiamo solo
usa la mappa di configurazione di kubernetes e così sarà
in qualche modo semplifica abbastanza il tuo ambiente
un po ‘così come questo in realtà
funziona così, quindi ricordati di dispiegare
un’istanza proxy per ognuno dei tuoi
micro servizio e sono tutti
centralizzata centralmente gestita dal
eesti o pilota quindi se il tuo pilota lo farà
propagare la configurazione a tutti
di questi proxy tuttavia uno dei
le cose che facciamo è questo se quando tu
effettuare una chiamata per il micro servizio da a a B per
esempio , intercettiamo senza problemi
questa richiesta utilizzando le righe della tabella IP o
il simulus intercetta tutte le connessioni
e così naturalmente la connessione a
il costo del servizio sarà intercettato
intercettato dal proxy e dal proxy
esaminerò questo carico utile e quindi lo sarà
sto per dire oh così per questa richiesta
tu
servire il servizio B e il proxy lo farebbe
capire dove altri backend sono e
il proxy prenderà quindi la decisione
come bilanciare il basso in base al tuo
configurazione e quindi sta andando a
selezionare uno dei backend e instradare il
traffico verso quella parte posteriore e quella posteriore
fine che ricevono questa richiesta, naturalmente
la connessione in ingresso sarà anche
intercettato anche dal proxy e al
questo proxy punto può decidere se
i server possono effettivamente effettuare la chiamata
quindi il processo può eseguire alcuni controlli di politica
per assicurarsi che questa cokeria sia effettivamente
capita e se può il proxy sarà allora
inoltrare la richiesta al reale
istanza sul back-end ed è così
funziona in questo tessuto proprio così ogni
la richiesta verrà catturata ed elaborata
dal proxy in questo caso e poi noi
può fare cose molto molto interessanti ora
se sei uno sviluppatore Java probabilmente
conoscere il concetto di aspetto AOP orientato
programmazione che è il modo che abbiamo usato per trattare
con la gestione delle preoccupazioni trasversali
avvolgeremo una logica comune su di te
conosci tutti i metodi che fanno il
cose simili ora questo rebeaud mat
uno ha codificato l’AOP per microservizi o
fondamentalmente avvolgendo nel catturare il
richieste e filtrandole attraverso
prima di passare da soli al back – end
ok ora se il proxy lo sa
tutto quello che sta succedendo allora possiamo
iniziare a fare domande interessanti a chi
in realtà mi sta parlando bene il proxy
lo sa perché il proxy sa chi ha fatto il
chiamare e il proxy sa chi è il co era
instradato a quanto tempo ha richiesto quella richiesta
quale il proxy ha ricevuto la richiesta
che l’originale richiede il proxy
sa quando la risposta è tornata così
il proxy conosce la latenza e ciò può essere
esposti a Prometeo e possono essere
catturato e condiviso e analizzato se tu
bisogno di sapere come se hai bisogno di avere un
l’intera catena delle chiamate da tracciare
bene se passi le intestazioni giuste
il proxy può catturare queste tracce e
propagare alla porta traccia come
Zipkin war Jaeger ma uno dei più
quello importante per me è che attraverso il
proxy attraverso questa comunicazione
meccanismo quelli che sono qui
a livello locale possono giocare a HTTP
ma
andare oltre il filo sulla fiducia e
rete che è dove si può effettivamente
vuoi crittografare la tua comunicazione e
se si vuole fare da soli che
può essere molto difficile da fornire reciproco
Libreria TOS o simili
questo con te stesso o tra i servizi
attraverso l’ uso di ogni do possiamo
effettivamente fornire connessioni TOS reciproche
perfettamente tra i tuoi servizi perché
quando parli da A a B dal tuo
prospettiva applicativa è davvero solo un
normale chiamata HTTP ma attraverso il proxy
possono essere effettivamente configurati con
TOS reciproco attraverso un centralizzato
autorità di certificazione in modo che possano
scambia il certificato e possono farlo
negoziare quella reciproca connessione TLS e
puoi fare tutte queste cose
senza soluzione di continuità e questa è davvero la magia
dietro le quinte in una partita di servizio SEO
ora come funziona tutto questo sono solo
farò una demo molto molto veloce e l’ho fatto
ho pensato come fare demo
questo meglio voglio scrivere qualcosa
questo è più semplice di base con no
Magia qualunque non ne aggiungerò nessuna
librerie client aggiuntive dietro questi
cose e ovviamente posso farlo in
PHP o go o note ma non ne conosco
di quelle lingue bene, così sarà
essere un problema per me sulla scrittura
Giava
ok, userò il più semplice Java
librerie a cui possiamo pensare e poi
Sto pensando di scrivere ai servizi
quindi ho pensato che forse potrei scrivere un’opera
servizio quindi avrò un server di lavoro
e penso a cosa è il lavoro
potrebbe essere solo una serie di insignificanti
incontri ogni giorno e così per quello
motivo per cui ho intenzione di scrivere un incontro
servizio così va bene così che cosa è che
stiamo andando a scrivere è un server di lavoro
chiamerà un server per le riunioni un paio
di volte ok ora ho intenzione di usare il
più cose di base qui che si dovrebbe
probabilmente non userò mai userò il
suono server HTTP nel JDK che
probabilmente non è già produzione così
non usarlo se tu se vuoi provare
questo fuori
quindi fallo in qualche altro servizio se tu
voglio ma questo è abbastanza facile farlo
Sto andando a scrivere un nuovo server, eccomi
dirai che il server è uguale al server HD
Creerò un nuovo server qui
Ascolterò sulla porta 8081 e I
bisogno di dargli un arretrato qui e
questo è tutto e posso andare avanti e iniziare
anche il server e poi il server
devono gestire alcuni
richiesta qui e sta per prendere un
scambio come quello e lo scambio è
dove possiamo mandargli le spalle e roba
come quello
ora non so di te in termini di
quello che fai un incontro questo è quello che io
fare
di solito ci vai giusto, sì, ci siamo noi
partire
oh e certo sarà un po ‘
eccezione qui fammi vedere in giro
ancora non so cosa fai con il
eccezioni questo è quello che faccio di solito
ci andiamo e poi posso andare avanti e
rimando che se ho dormito con successo
attraverso il mio incontro senza essere licenziato
e manderò indietro 200 okay sì
va tutto bene e sto andando a
Chiudi questa connessione in quella città a destra
ora è un server molto semplice che posso
scrivere ho intenzione di andare avanti e provare a
eseguilo quante persone pensano che sarà così
basta lavorare a nessuno wow è dura
folla va bene così se hai iniziato questo
applicazione e sembra che sia
lavoro lasciami andare avanti e fare il
richiesta Sto per dire arricciatura
localhost: 8080 one e meet e di
Certo che non restituisce altro che io
dovrebbe essere in grado di vedere che questo piccolo
il gestore viene lasciato per 250 millisecondi
che non è poi così male e quindi abbiamo solo
bisogno di andare avanti e farlo sul lavoro
dal lato del lavoro che sto per fare
un paio di cappotti ora a causa del
ora sto andando imbrogliare un po ‘Sono
farò solo il codice qui magicamente
Va bene così numero uno che dobbiamo creare
un client HTTP e questo client sta andando
ad esso deve essere un client HTTP 1.1 se tu
prova a effettuare una chiamata nella corrispondenza del server
con HTTP 1.0 probabilmente non lo farà
lavora quindi assicurati che sia HTTP 1.1 e poi
stiamo per farmi vedere qui amico
ci sono dei peltro con una nuova richiesta e per
questo useremo un endpoint
che è configurabile in alto così qui
che chiamerà HTTP e
quindi chiamando la barra degli endpoint si incontrano e
quindi codificheremo la riunione
Metodo per tempi ho intenzione di instradarlo
lo sai quattro volte e poi per ciascuno
tempo ho intenzione di inviare una richiesta e
allora se avrò la risposta 200 andrò
per dire incontrare più plus e stiamo andando
per contare il numero di volte che io
successo vuoi alla riunione e
lastra senza essere licenziata e io sono
andare a qui è la parte più importante
nella cosa sacra d’acciaio, se vuoi questo
per tracciare quello è quello in ciascuno
devi propagare le intestazioni se tu
voglio tracciare le tue richieste e
ci sono un numero di intestazioni che hai
per propagare in modo che la tua applicazione sia
responsabile della ricezione delle intestazioni
quello che verrà generato da ciascuno lo farà
questi sono l’intestazione è le intestazioni xp3
quelli sono quelli standard e poi
è necessario anche ottenere alcuni dei
altro come paga OTS e contatti
in ID richiesta Ex da catturare
queste intestazioni quindi se queste intestazioni non lo fanno
esistere
ogni affare sarà in genere per te se
esiste quindi devi propagare
giù così in questo caso che parola solo
ha bisogno di iterare sostanzialmente attraverso il
intestazione assicurandosi che se sia effettivamente
ci sto andando a impostare l’intestazione in
propagandolo alla prossima richiesta ok
e questo è davvero oh, lo farò
e ho intenzione di andare avanti e farlo funzionare
anche il server di lavoro e vediamo se
che in realtà funzionerà, quindi è tutto qui
e correndo sto andando ad arricciarmi
localhost 8080 e slash funzionano e
si spera se funziona possiamo vedere che
abbiamo creato il codice per il backend quattro
tempi e 250 millisecondi ciascuno quindi quattro
tempi che sono circa un secondo in te
sappiamo che possiamo vedere che questo funziona davvero
tuttavia se in realtà vado avanti e mi fermo
il backend ora se faccio la chiamata il
un tipo di errore di papà fa tornare indietro un bambino
il modo in cui tengo il mio al molto
primo servizio giusto perché non c’è
qui il circuito si rompe non c’è magia
ovviamente se la connessione non funziona
non funziona, ma stiamo andando a
distribuire questa stessa applicazione nel
Ambiente orientale attraverso le comunità
adesso va bene
quello che faremo è giusto
fondamentalmente solo andando a compilare pulito
compilare e ho intenzione di costruire un
contenitore dentro costruendo il contenuto che sono
userò questo piccolo strumento chiamato jib ji
B questo è un progetto open source da
Google che ci siamo andati lì così
usando jib posso effettivamente costruire un
contenitore senza medico installato
localmente sulla mia macchina e questo spingerà
questa immagine del contenitore direttamente al
registro ed è fatto proprio così
fondamentalmente quello che sto facendo è che io sia
compilando le lezioni e poi ho solo
creato il contenitore per la spedizione ed è
spinto direttamente al registro in
qui giusto così che è sul mio hub docker
in questo momento va bene e ho intenzione di fare il
la stessa cosa per il mio server di lavoro così solo per
assicurati di non vederli, lo farò
puliscilo e poi compilalo e io lo sono
andando a sbattere Butte ora solo per mostrarti
quanto piccola questa applicazione è il pacchetto
fino al tuo file jar solo così puoi vedere
ciò che sembra così questo piccolo
micro servizio che non ha alcuna magia dietro
abbiamo creato questo file jar e questo
il file jar è di soli 3.3 K a destra
piuttosto che conosci decine di megabyte
fare qualcosa di abbastanza semplice è
davvero molto piccolo perché eravamo solo
usando tutte le funzionalità della scatola da
JDK e allo stesso modo per il server di lavoro
questo è ciò che spingo tutto
kubernetes ora il modo in cui ho intenzione di
distribuirlo in kubernetes è ovviamente
utilizzando lo stack API ben definito
offerte di turbinati e in questo caso per
esempio se voglio distribuire il lavoro
Immagine questa che sto per fare Vado
per morire ho intenzione di distribuire due istanze
della mia immagine di lavoro e il nome dell’immagine
è qui giusto , questo è il nome del
immagine qui che ho appena creato e io sono
andando a configurare il punto finale in modo che
può utilizzare la scoperta dei servizi di Kubernetes
fuori dalla scatola
fondamentalmente devo fare è dire il codice
il server della riunione perché sto andando a
definire un servizio di riunione giusto e poi
nel servizio qui fammi vedere qui a
l’incontro è VC bene così per esempio per
il server delle riunioni posso definire il
servizio questo è un tipo di servizio giusto
qui e questo muro dietro le quinte
creare un piccolo bilanciatore per me loro
ascolterà sulla porta 8081
si dirigerà verso la mia porta di destinazione 8081 e
quindi ci dirigiamo verso il back-end usando
le etichette quindi vado avanti e
distribuire l’intera faccenda , assicuriamoci
Sono collegato al mio cluster di comunità
ora per fare ogni azione
ricorda
abbiamo in qualche modo bisogno di ottenere il proxy
distribuito a fianco del mio micro servizio
ora se lo noti in questo
particolare descrittore di implementazione in
contenitori
ha solo un contenitore giusto, quindi c’è
il contenitore che ho che è il lavoro
server e questo è il contenitore che sono
andando a correre come fa il proxy in realtà
entra lì bene per fare ciò che hai
due modi uno è iniettando
proxy manualmente quindi c’è un po ‘
utility chiamata East ioctl e da qui
puoi iniettare un cubo che può darlo
un file che è un appuntamento criminalista
e se guardo cosa fa questo filtro
è il tuo filtro attraverso il tuo
descrittori esistenti e poi lo farà
mantenere tutte le configurazioni esistenti
come qui abbiamo l’immagine che
nomi dei dipendenti, ma se scorro verso il basso a
un po ‘questo filtro si inietterà a
secondo contenitore all’interno dello stesso contenitore
e quello sarebbe il contenitore proxy
che tutto il traffico verrà instradato
attraverso ok e se scorro anche a
un po ‘di più quello che vedremo
è questa cosa chiamata inizializzazione
contenitore che è proprio qui e questo
il contenitore verrà avviato molto prima
uno dei precedenti per continuare a
avvia quindi l’applicazione nel proxy
inizierà solo dopo che questo contenitore è
iniziato con successo e l’in a
contenitore qui sta per configurare il
Righe della tabella IP ciò che questo farà
fondamentalmente configurare una regola che lo farà
reindirizzare tutte le connessioni al
porta proxy 15.000 e uno va bene e quello
è come possiamo iniettare l’intercettazione del proxy
del traffico come le richieste
stanno attraversando ora un altro modo di
facendo questo è usando ciò che chiamiamo
iniezione automatica così ho configurato
il mio cribben in questa cultura in modo che lì
dì ciò che chiamiamo imitare l’ ammissione
l’ incremento di webhook è praticamente qualsiasi cosa
che distribuiamo in questo ambiente se
Sto schierando in uno spazio dei nomi o con
con alcune etichette abilitato il webhook
sarà preso prenderà effetto che cosa
questo significa che i kubernetes lo faranno
intercettare potenzialmente il dispiegamento di
la mia domanda e poi correremo
attraverso il jack cubing localmente sono
scusa , correrà attraverso il cubicolo
controllare sul lato server e poi
generare un produttore di un nuovo descrittore
e aggiornare la mia configurazione come sono
Deponia va bene così ho intenzione di mostrare come
funziona e ho già questo
configurato così sto solo andando avanti e
distribuire l’intera cosa alcuni vanno a poi
lavoro postale nel server delle riunioni dietro
le scene giuste e ora se vado avanti
ricordo nel file giallo che ho solo io
un contenitore ma se vado a vedere il
lo stato di questa distribuzione che possiamo
effettivamente vedo che ce ne sono due
contenitori in esecuzione
questo perché il mio ambiente è stato
istituito con l’iniezione automatica così noi
iniettato automaticamente l’ acciaio
delegati dietro le quinte per ognuno
di questi micro servizi è per questo ogni
una di queste istanze ne ha due
contenitori uno di loro è il
l’applicazione l’altro è il proxy
e ovviamente l’inizializzazione
anche il container ha funzionato, quindi questo è tutto
essere impostato correttamente e ovviamente io
può andare avanti e controllare se posso
connettersi ad esso così per quello che sto andando
entra nel guscio che è dentro il
cluster e quindi forse posso fare una chiamata
e attraverso il servizio nativo delle comunità
scoperta posso usare il nome dns chiamato
work server sorry works e port
8080 è il modo in cui definisco il mio servizio
Vado a chiamare il lavoro e, si spera
questo lavoro e oh grazie carino si
era un po ‘ lento la prima volta ma
lavorato
sì non male e possiamo vedere che questo è
funzionando abbastanza bene a destra, quindi questo è
solo andando attraverso l’ambiente
tuttavia in questo momento questo è
questo è già in esecuzione su ogni affare
ogni richiesta che sto facendo a questo molto
momento è già stato intercettato dalla
proxy est EO e puoi vedere come
trasparente questo è rendendo questo
chiamare anche questo spettacolo in questo momento
intercettato da HDL – anche quello
significa che ora posso usare il pozzo
terminologie definite che ciascuna ancora
mi fornisce l’idea di un’abitudine
definizione delle risorse che posso fare interessante
cose così per esempio se voglio
esporre il servizio di lavoro al pubblico
Internet posso instradarlo attraverso la e
gateway di ingresso in acciaio e in ordine per
che per succedere ho bisogno di definire un nuovo
gateway Ho bisogno di legare il gateway a un
hostname quindi qui sto combattendo per recitare
questo significa che ascolterò ogni
nome host singolo che passa attraverso il
Indirizzo IP ma immagina se lo hai
IP virtuale mi dispiace hosting virtuale dove
hai nomi host diversi che possiamo
instradare i diversi nomi di host su
stesso IP allo stesso ingresso e ad est voi
può indirizzare il traffico in base a questi
nomi di host virtuali e noi siamo
andando a definire che stiamo andando a
ascolta anche la porta 80, quindi vado
andare avanti e applicare il Gateway e
ciò che questo farà è dire che ognuno fa
Io ho voglia
ascolti il traffico sul tuo IP pubblico
indirizzo okay e poi la seconda cosa
quello che possiamo fare è che non possiamo definire
queste cose chiamate servizio virtuale
dove servizio virtuale in East EO
la terminologia è davvero solo un modo per te
per definire cosa vuoi fare come te
vuoi instradare il tuo traffico okay così dentro
questo caso particolare che ho intenzione di definire
un nuovo servizio virtuale chiamato
server di lavoro e stiamo andando a dire qualsiasi
richiesta che arriva sul lavoro di barra sono
andando verso il server di lavoro
backend che ho già distribuito e
perché voglio che questo sia esposto sul
pubblico di fronte l’ingresso Ho anche intenzione di
legalo al gateway che io solo
creato proprio se non lo trovo al
gateway il lavoro è il servizio virtuale
così interno, ma se lo faccio scorrere al
Gateway allora diventa pubblica in modo lasciatemi
andare avanti e provare questo ho intenzione di legare
questo al Gateway e ho intenzione di
applica questa configurazione mi ricordo come
questo funziona applica la configurazione I
mandalo a Kubernetes East il tuo pilota
ottiene questa configurazione capisce cosa
è quello che vuoi nello stato di desiderio
e poi torna indietro e configura il
proxy di conseguenza ok quindi quindi tutti
questa configurazione verrà applicata e
per questo dovrei essere in grado di fare
la richiesta Kuril al mio Gateway, quindi lascia
io vado avanti e prova che fammi vedere se io
posso trovare micro al IP no, posso farlo
io vado avanti e trovo l’ indirizzo IP qui
quindi questo è in realtà un servizio come nel
East Eel System fammi vedere qui sì SVC
e ci sarà un indirizzo IP che è
associato con l’ingresso dell’anguilla orientale
gateway che è quello e l’IP
l’indirizzo è questo, quindi quello che posso fare è allora
Posso fare un ricciolo e poi lavorare ora
ricorda che questo passa attraverso l’ingresso
gateway va al servizio virtuale
definizione stiamo catturando la barra
lavora il tuo io ci stiamo abbinando sull’URI
e poi per data al servizio di lavoro
e ora è indirizzato al server di lavoro
e nel server di lavoro effettivamente chiamato
il server delle riunioni quattro volte a destra e
questo è quello che è successo dietro le quinte
ora ho intenzione di mettere questo per un po ‘
ciclo che è lo stesso sì proprio IP ora
Metti questo in un ciclo while in modo che possiamo vedere
cosa succede allora , eccoci qui
quindi questo è un ciclo while puoi vederlo
Sto partecipando a quattro riunioni in questo momento
proprio allora noi
cose interessanti quindi per esempio se
Voglio introdurre una scimmia del caos in
questo caso perché voglio divertirmi e
se voglio lo sai basicamente testare il
resilienza della mia domanda o se io
voglio solo divertirmi posso dire a Pasqua
Posso scrivere una configurazione qui per il mio
il servizio virtuale qui ricorda questo
come decidiamo come instradare così in questo
caso ho intenzione di dire tutto ciò che è
stato indirizzato a un server di riunione che voglio
fallire il 100% delle volte va bene così
solo per divertimento e ricorda come funziona
di nuovo non appena lo applichi
configurazione ciascuno per le tue scelte pilota
va bene e configuriamo tutto il
i proxy e ora molto rapidamente il proxy
assaggia la configurazione e ora l’ odore
le richieste al server della riunione sono ora
fallendo con il 503 giusto e saresti
come se fosse divertente come stiamo provando
lavoro cerchiamo di sbarazzarsi di esso
giusto allora puoi dire bene fammi avere
sbarazzarsi di questa regola e ritorna a destra
non è semplice e con lo stesso
meccanismo è ciò che possiamo fare noi possiamo
effettivamente distribuire due versioni del mio
servizio quindi quello che farò è
distribuire una seconda versione del mio lavoro
servizio fammi vedere qui v2 ora applicare il
seconda versione e la seconda versione di
il lavoro è fondamentalmente quando lavoro davvero
davvero difficile ci andiamo
oh non ho distribuito qualcosa correttamente
eccoci
aha quindi è qui che lavoro davvero
davvero difficile così quando sto lavorando duramente ho
andare a otto incontri non sto lavorando così
Duro, io vado solo alle quattro, quindi puoi
vedere come questo è poco equilibrato
attraverso i diversi servizi e tu
puoi anche vedere che è un po ‘
deterministico che è anche perché da
di default stiamo usando lo sfregamento del romancer
ma è anche possibile per noi a voi
sapere ottenere un percorso per il traffico attraverso ciascuno
trattare ciò che significa è che posso
definire la regola di destinazione qui in modo che
possiamo catturare i due diversi
versioni appena distribuite per il mio lavoro
server ho avuto due versioni e ho v1
e v2 e ho bisogno di in un modo per
definire cosa sono queste due versioni
usando le etichette in modo incredibile, così posso
usa l’ etichetta della versione qui, quindi posso dire
v1 significa che vergine è uguale all’ultima
v2 versione a scuola per v2 ora, naturalmente
puoi salutare in verde puoi dire vecchio
e nuovo non importa, è un modo
perché tu possa nominare le tue versioni
così ho intenzione di andare avanti e applicare
questa definizione v1 v2 in modo che ora ho
due diverse versioni per lavorare con e
ora quello che posso anche dire è okay
ti dici cosa mi piace iniziare
con tutti i carichi di lavoro rally a v1 così io
posso tornare al servizio virtuale che posso
definire le regole di corrispondenza qui che noi
può coincidere con il tuo io e le intestazioni, ma poi
possiamo anche dire rotta o traffico verso
p1 e nessun traffico verso la v2 e ti voglio
fare è applicare questo video e possiamo
effettivamente trafficano il marketing per te
e puoi usare questo stesso meccanismo
per fare distribuzioni blu e verdi o per te
può usarlo per un canarino nuove versioni come
ben spostando il traffico al
percentuali che si sta cercando in modo
ora possiamo vedere molto efficacemente noi
spostato tutto il traffico per essere 1 e noi
può usare la stessa cosa per spostare il
traffico a v2 ora senza tutto ciò che ha detto
il routing giusto è solo un piccolo aspetto
di ciascuno fanno ciò che possiamo fare, naturalmente
è impostare le regole e il circuito di ripetizione
rompere le regole pure così per esempio se
preferisci impostare una regola per i tentativi piuttosto
di aggiornare la logica della tua applicazione
il proxy può gestirlo per te in modo che possiamo
appena istituito la regola di tentativi del genere per
dì riprova 3 volte per il mio incontro
servizio nel caso in cui si va giù e noi
può andare avanti e basta aggiornare e
il proxy sarà configurato
appropriatamente
ok ora ricorda questa applicazione
non ha assolutamente magia se non per
propagare le intestazioni e quando anche io
significa che attraverso di noi in realtà
prendi un bel po ‘di cose numero uno
avere un grafico su una dashboard che è stata
installato di default e posso effettivamente
vai a questo cruscotto adesso e cosa
possiamo vedere è in realtà il traffico
latenza e anche la richiesta di successo
che viene effettivamente catturato da Envoy
proxy quindi posso andare avanti e andare al
cruscotto questo è pre-creato lasciami andare
avanti e trova il server di lavoro giusto
qui e possiamo vedere il QPS che è
essere instradati attraverso il proxy e acciaio
adesso e possiamo vedere il successo
tassi di quello ora, naturalmente, se io
Vai al servizio di riunione fammi vedere se
Io trovo un server di riunione qui proprio noi
posso vedere molto chiaramente questo era quando io
non è riuscito a richiedere il cento per cento di
il tempo in cui puoi vedere che fallimenti nel mio
anche grafico, quindi è abbastanza bello questo
è uscito dalla scatola ora se io
c’è bisogno di vedere un’intera distribuzione attraverso
come esattamente chi sta effettivamente realizzando il
pettine quello che posso fare è quello di aprire il
console di yogurt qui, quindi mi aprirò
rapporto di sedici anni e ho intenzione di andare avanti
e vai al mio host locale qui solo per vedere
la console yoga e poi quello che posso fare
fammi vedere il gateway di ingresso
perché è lì che il traffico su
percorso con e poi lasciami andare avanti
e trova il traffico e puoi vedere oh
la richiesta che arriva per iniziare il lavoro
e perché stiamo propagando la traccia
le intestazioni stiamo anche catturando tutto il
tracce così qui possiamo vedere molto chiaramente
il server di lavoro che chiama la riunione
server un certo numero di volte e ciascuno
di loro con la propria latenza è tutto
essere fatto fuori dalla scatola con un più facile
installazione ora supponendo che tu sia
propagando le intestazioni giuste giusto e
la bellezza di tutta questa cosa è quella
se dovessi distribuire questo con ognuno di voi
Connessioni TRS in modo che le mie connessioni
qui sono protetti tra il server di lavoro e
server di riunione è davvero esattamente il
stessa cosa non ho bisogno di modificare il mio
applicazione forse lievi cambiamenti nel mio
il modo in cui lo distribuisco ma senza cambiare
qualsiasi cosa sulla mia app questa comunicazione
può essere effettivamente protetto tramite TOS reciproco
così va bene così ci sono molto di più
cose che possiamo fare e una delle più
importante quello che voglio menzionare è
che non solo ti permettiamo un controllo
piano per controllare il percorso del tuo
traffico spostando il mirroring del traffico
traffico e tutto ciò e aggiungendo circuito
rompe tutte queste metriche che erano
collezionare o le tracce che erano
la raccolta di questi diventa piattaforma
servizi che possono essere in qualche modo astratti
via da ciascuno e anche da quello
modo in cui possiamo anche fare proprio come
kubernetes riassume il tuo sottostante
infrastruttura qui possiamo anche astrarre
via il modo in cui stai raccogliendo il tuo
le tue metriche e possiamo effettivamente procedere
queste metriche e tracce sul cloud
servizi gestiti specifici in modo da non farlo
devo gestire
il tuo va bene e senza essere detto lascia
io vedo l’ora sì
ricorda che sto è uno strumento abbastanza carino
che puoi applicare nella tua azienda
cluster oggi puoi anche eseguirlo
anche all’esterno del cluster e tu
puoi ottenere la resilienza della visibilità e tu
può controllare il tuo traffico oh attraverso il
lo stesso piano di controllo per ogni affare va bene se
hai qualche domanda per favore per favore
unisciti alla community a cui puoi partecipare
nei gruppi e -mail e -mail e ciascuno fa
tocca gli utenti puoi unirti a ECI, oh sai
solo noi siamo qui perché vogliamo le persone
per provarlo è la versione 1.1 1.0 giusta
ora e non vediamo l’ ora che arrivi il tuo
feedback quando provi queste cose
fuori e se avete domande voi
posso trovarmi su twitter e sul mio sito web
e con questo vi ringrazio molto
il tuo tempo grazie
tu

Please follow and like us: