Press "Enter" to skip to content

GOTO 2016 • Machine Learning with Google Cloud Platform • Kaz Sato


Я Kaz Sato Я сторонник разработчика
для облачной платформы Google, и я также
тек свинец для команды анализа данных
и я работаю в Google для
в течение пяти лет и в течение последнего и
полтора года я работал как
разработчик выступает за
такой презентации на многих мероприятиях, поэтому
в этих сессиях я хотел бы поговорить о
эти программы, но сначала я хотел бы
введение вводит концепцию
нейронной сети и глубокого обучения и
он работает с очень большими демонстрациями
а также я хотел бы представить, как
Google развертывает эти нейронные
сетевые технологии для толпы Google
и тогда я буду освещать
технологий и продуктов,
фактически предоставленные в качестве продуктов из
Облачные платформы Google, так что
нейронной сети, поэтому нейронная сеть является
функция, которая может учиться на тренировках
набор данных, поэтому, если вы хотите иметь более новые
сети для распознавания образов, тогда
вы можете положить, например, изображение cat
преобразуется в вектор нагрузки, а затем
поместите этот вектор в сети, тогда
в конечном итоге у вас будет другой выход
вектор, который представляет метки
объекты, такие как кошка или человек
так что он предназначен для имитации
поведение новых в человеческом мозгу
используя матричные операции, поэтому на самом деле
это действительно имеет очень простую матрицу
операций только нет
сложная или фантастическая математика
на все, что вы делаете с нервным
сети, если у вас есть матрица
операций, которые мы узнали на высоком
школа, например, входной вектор может
мы представляем изображение кошки
то у них будет вектор, который
данные пикселя преобразуют его в
ветеринарный врач
и вы получите другой выходной вектор
как результат , который представляет метку
обнаруженные изображения в этом случае вы
будет иметь любое число ближе к
1.0, который указывает на нейронные сети
думает, что изображение должно быть кошкой, но вы
думайте, что внутри в ваших сетях
очень просто все , что вы делаете с
нейронная сеть — это матричные операции
как WX plus B, равнозначно, где WS
являются весами, а B — предубеждениями и
на самом деле вам не нужно заботиться о
эти WS и B вообще вы позволите
компьютеры находят и вычисляют WS и
B так все, что вам нужно, это да
какие данные вы хотели бы разместить
в сети и какие
результат, который вы хотите получить, давайте возьмем
взгляните на некоторые интересные
демонстрация нейронных сетей для
пример , если у вас есть проблемы , как это
очень простые классификации, как вы
можно использовать нейронные сети , чтобы сделать
классификации этих двух разных
наборов данных Я не уверен, что эти
точка данных означает, но давайте возьмем лифт
представьте, что это данные
веса и высоты людей, так что если
вес и рост человека оба
громко, и вы можете думать, что он или она должны быть
ребенок или, может быть, он или она может быть
взрослым, как вы можете классифицировать их, если
вы используете вас, если вы попытаетесь использовать нейронные
сети для решения этой проблемы, то вы можете
просто примените то же уравнение WX plus B
равный Y, вы должны сделать два
классификации, чтобы вы
номер веса и номер высоты здесь как
вектор, и вы получите выходной вектор
как это где , если вы , если то , что сингл
данные не классифицируются как взрослые
то у вас будет один здесь, и если это
ребенок, тогда у вас будет один здесь
и дело в том, что компьютер пытается найти
оптимальное сочетание
такие параметры , как веса и
предубеждения сами по себе, и вам не нужно
подумайте о том, какие параметры вы
необходимо установить на компьютер нейронных сетей
это для вас, поэтому давайте взглянем на
фактическая демонстрация вы видели
так что я могу сделать это хорошо, поэтому вместо
люди, позволяющие компьютеру инструктировать
обучения вы знаете , вы не должны
как решить эти проблемы
проблемы, но все, что вам нужно сделать
обеспечивает набор учебных данных, чтобы
компьютер сам думает оптимизировать
комбинация параметров, таких как
как веса и предубеждения, поэтому вы видите, что
компьютер пытается изменить
веса , чтобы сделать классификации в
оптимальный уровень успеха, и теперь компьютер
использование алгоритма называется градиентом
lee, что означает, что он пытается увеличить
или уменьшить каждый вес и
сделать комбинации ближе через
более высокая точность или меньший сланч
это так же, как мы изучаем вещи
от родителей или может быть
старшие люди в вашей компании, где вы
эти младшие люди или эти дети
учиться много много ошибок так
компьютер совершает много ошибок, но в
начальный этап, но если вы предоставляете
гораздо больше данных тренировки, чем
компьютер с использованием градиентного спуска
алгоритмы пытаются минимизировать сбои
так что так оно и работает, давайте
взгляните на еще один интересный
демонстрации новых или сетей, где
у вас есть другой учебный набор данных
вот так я не уверен, что это значит
но мы думаем, что у нас есть
набор данных, требующий сложного
классификации, если у вас есть программа
возможно, с настройкой данных вы можете
хотите, чтобы пользователь мог уравнения для круга
классифицировать два набора данных через
наборы данных и организовать заболевание, но
используя новые сети, вы можете просто позволить
компьютерные вещи, как решить его сейчас
увидел, что компьютер пытается создать
шаблон для классификации этих наборов данных посредством
используя так называемые нейроны в скрытом
слоев с первым примером мы не
имеют какие-то скрытые слои, но с этим
сложные данные, которые вам нужно использовать
скрытые слои, значит между
входные данные и выходные нейроны
будет иметь между собой еще один слой
есть много новых и каждый из них
новые делают очень простые вещи, эти
нейроны только классифицируют, являются ли данные
точки находятся в нижнем левом красном
области или верхней правой области или сейчас
эти нейроны только классифицируют,
точки данных находятся слева или справа
точно так же, как и объединение этих
выходы на последнем новом нейронном
сети, то нейронные сети могут
составляют гораздо более сложный
это, и если у вас все больше и больше новых
нейронов внутри скрытых слоев, тогда
предположения о спецификациях сети
может быть гораздо точнее, чем это
здесь, добавив более скрытые слои с
больше новых, которые вам нужно потратить много
больше вычислительной мощности, но при этом
время, когда нейронные сети могут составлять
гораздо более сложные шаблоны и извлечение
шаблоны из большого набора данных, как
об этом давайте попробуем это данные
шаблон, называемый двойной спиралью, если вы
программист и ваш директор или литье
просил вас пересечь бой такого рода
данные, какая программа
называемый вами диск , вы хотите написать
многие заявления о проблемах или переключатель
с множеством пороговых попыток
проверка x и y разделов нет I
не хочу этого делать, я бы
вы будете с помощью нейронных сетей , так что
нейронные сети пытаются взглянуть на
Точки данных в наборах данных , чтобы найти
оптимальные шаблоны, скрытые внутри
набор учебных данных, это правильно, поэтому
это то, где в ваших сетях можно
превышают человеческую производительность человека
производительность программистов, которую он может извлечь
эти скрытые шаблоны внутри
набор учебных данных, и вам не нужно
указать любые декоративные элементы, которые вы
не имеют каких-либо
человеческая рука вместо компьютеров может найти
шаблоны из набора учебных данных
так что люди так взволнованы
нейронные сети и что глубоко
узнав об этом, если у вас есть
проблемы идентификации почерка
текста, вы все еще можете использовать очень простой
GW Express peep означает, почему
нейронные сети, чтобы найти это
почерк берет сети
придумать комплекс болезней
стекирование классифицирует эти изображения в
летних векторов с такими ярлыками, как
восемь или семь или шесть, если вы хотите больше
чем у вас больше нет
более скрытые опасности, чтобы вы были
может выглядеть как 85 или 95 или 98, как
машина как об этом как вы можете
классифицируйте эти изображения кошек, используя
нейронных сетей у вас должно быть много
более слоев нейронных сетей, является
так называемые глубокие нейронные сети
это не диаграмма, называемая зарождением
модель 3 была опубликована
Google в прошлом году, когда мы использовали
240 скрытых слоев в одном нервном
сетевой дизайн, поэтому требуется гораздо больше
вычислительной мощности и времени, но все же мы
Можно
гораздо более сложные соревнования, подобные этому
вы знаете, что новые ближе к
входной вектор мог бы учиться очень просто
образный регби, как вы знаете, вертикальный
линии или горизонтальный подъем но
нейроны ближе к выходному вектору
могли бы изучить гораздо более сложные шаблоны
или таких композиций, как нос для глаз или
человеческое лицо снова мы не ставили
особенности шаблонов, встроенных в
нейронные сети перед тренировкой сделала так
все можно обучить данным
задавать
да, используя вычислительную мощность, поэтому
это то, как нейронная сеть и глубокая
обучения работает , но , как я говорил об этом
занимает так много времени вычисления и
наборов учебных данных для использования
для производственных проектов, поэтому есть
две большие проблемы прямо сейчас для
пользователей для глубоких запусков, и это
зачем держать бег не был так
популярный для вас, ребята, как только мы решили
у этих проблем рака будет много
вычислительной мощности с напечатанной
набор учебных данных, тогда вы можете легко
применять нейронную сеть, чтобы
ваши существующие проблемы, если вы играете
программистом, вы можете захотеть применить
глубокое обучение анализа шестерни вы
журналы журналов журнала регистрации, чтобы проверить
ли игрок может быть CHEATIN
игровой или спам- офисной погоды, или если
веб-дизайнер или веб-системный инженер
для системы объявлений , то вы можете
применять журналы для преобразования в качестве
быстрый быстрый расход наших журналов на нервные
сети, чтобы вы могли получить
компьютеры, чтобы учиться с года как журнал
для получения большей оптимизации, но вы должны
имеют вычислительную мощность и данные обучения
так что это причина , почему мы начали
использование облака Google для обучения в больших
масштабная нейронная сеть Google облако
рэкет и
сотни тысяч машин в нашей
центров данных в глобальном масштабе, и мы были
построение этих компьютеров по данным
центр как компьютер, а не просто куча
построение компьютеров Switzer, которые мы проектируем
каждый Кратер, который держится как десять или
двадцать тысяч серверов, работающих как
один компьютер с несколькими нашими процессорами
так что это причина , почему мы можем это
это не так трудно для нас , чтобы развернуть попытаться
масштабные нейронные сети или коэффициенты могут быть
создал Обработку в облаке Google
если есть два основных фундаментальных
технологий внутри google, что
поддерживает центр обработки данных на компьютере
одна из них — сеть, которую мы строим
наша собственная аппаратная поддержка сети
коммутационная ткань, называемая юпитером
сетей, поэтому мы не используем
коммерческие сетевые коммутаторы для большинства
такие случаи, как Cisco или можжевельник
маршрутизаторы — это не
новые наши сетевые магистрали, которые мы имеем
строили собственное оборудование, которое
держитесь, как сто тысяч горшков 10
Порты Gigabit Ethernet , которые можно есть на
один балл для питья немного в секунду за
наш центр данных, так что это сети
мы имеем в Google, а также
технология, называемая Borg bo, является нашей
запатентованные контейнерные технологии мы
используют более 10 лет для
развертывание или почти все сервисы Google
таких как поиск Google или Gmail или Google
Карты
удержания контейнеров на
10 000 или 20 000 физических серверов в
единый кластер, чтобы вы могли
крупномасштабное планирование работы
планирование циклов процессора или памяти
пространства или диска i / os с таким масштабом, поэтому
это причина, по которой вы можете развернуть свои
отдельные приложения, например, нейронные
сетевое обучение или большие данные
обработка в сотни или
тысячи машин с одной землей
команды по умолчанию
и мозг Google — это проект, в котором мы
начали применять облако Google
технологии 2d для создания крупномасштабных
нейронных сетей
в 2011 году и прямо сейчас Google Google
был использован для многих
производственный проект в Google и быстрый
масштабируемость Google Google мозга
проект, например, rankbrain rankbrain
— наши алгоритмы ГУ, которые мы используем для
рейтинг поисковой службы Google
прямо сейчас, начиная с прошлого года
с использованием инфраструктуры Google Google
и с пятьюстами узлами, и это может
выполнять в триста раз быстрее
чем отдельный узел, что означает, что если вы
тренируют вашу модель глубокого обучения
с отдельными серверами, тогда вы
В 300 раз дольше, чем инженеры Google
и создание является моделью для
визуальное визуальное распознавание мы можем использовать 50
GPU для ускорения работы на 40
раз быстрее, так что разум
причина, по которой Google была настолько сильной
на применении глубокого
производственный проект, такой как alphago
Frady у нас есть серия ядра
матчей с основным профессионалом они
используют мозг Google
инфраструктуры для обучения , а также
как предсказание матча Google
Поиск в Google
мозг с прошлого года, и у нас есть
использовали машинное обучение
технологии для оптимизации данных
оперативный центр , а также или она OUR
обработка естественного языка и визуальная обработка
признание распознавания речи такого
как фотографии Google, что он озвучил
конвенции андроидов, которые мы имеем
60 проектов,
с использованием Google-мозга и глубоких знаний
последние пару лет у нас есть
начал экстернализующий эту силу
Google для внешних разработчиков
первый продукт называется представлением толпы
API и второй продукт
API-интерфейс толпы пользователей API толпы
анализ изображения IPA, который обеспечивает
предварительно подготовленной модели, чтобы вам не приходилось
тренируйте свою собственную нейронную сеть, и вы
также не должны обладать навыками
для машинного обучения, так что это
просто на REST API вы можете просто загрузить
ваше фотоизображение в API, то вы повторяете
получение JSON приведет к нескольким секундам
есть результат анализа и
вы можете начать пробовать до
1000 изображений в месяц и общее
как правило, сейчас, так что
готовые к использованию для производства
проект имеет шесть различных функций:
быть обнаруженными губными обнаружениями, означает, что
вы можете поместить любые ярлыки или категории в
любые изображения, которые вы загрузили, например, если
вы загружаете изображения кошки, затем
API будет возвращать арабских
как обнаружение кошек или домашних животных может
определить местоположение лица на изображении
OCR Я могу преобразовать текст на изображение в
строковое средство обнаружения содержимого
что вы можете проверить, будут ли изображения
могут содержать изображения, содержащие
взрослых или насильственных изображений на нашей вехой
Обнаружение может обнаружить местонахождение из
изображений или популярных мест, и вы можете
также обнаруживать продукт или корпоративный
роли, давайте посмотрим на
демонстрация
так что я хотел бы показать демонстрацию
видео в первую это
демонстрации с использованием малины Pi
робот, который отправляет изображение в раздел
Облачное зрение API обеспечивает мощное изображение
возможности аналитики как простые в использовании
api позволяет разработчикам приложений
построить следующее поколение
приложение, которое может видеть и понимать
содержание в изображениях
сервис построен на мощном компьютере
модели зрения, которые позволяют нескольким фирмам
Службы Google, предоставляемые службой
разработчики обнаруживают широкий набор
сущности внутри изображения из повседневной
объекты для лиц в логотипах продукта
сервис настолько прост в использовании, как один пример
случаев использования вы можете иметь любой
Малиновый пи-робот, как глоток, я иду
напрямую ссылаясь на API облачного зрения
широкая можно суммировать изображения , полученные с помощью
его камеры в облаке и может получить
результаты анализа в реальном времени обнаруживают
лица в изображении вместе с
связанные эмоции API облачного зрения
также способен обнаруживать объекты в пределах
изображение теперь давайте посмотрим, как
обнаружение обнаружения облачного зрения
пробелов на изображении и возвращает
положения глаз носа и рта, так что вы
может программировать бота, чтобы следить за лицом
он также обнаруживает эмоции, такие как радость
удивление гнева и печаль, так что дно
двигался к улыбающимся лицам или избегал
гнев или удивление — одно из самых
интересные особенности API облачного зрения
это обнаружение объекта, что означает
обнаруживает любые объекты, которые вам нравятся
Облачные посетители любят, чтобы разработчики
преимущество последней машины Google
легко освоить технологии обучения
перейдите в cloud.google.com slash
зрение, чтобы узнать больше, и у меня есть другое
интересные демонстрации, которые сделаны
используя API видения , если это
демонстрации виджетов Explorer
где мы импортировали 80 000 изображений
загруженный из Викисклада и
загружается в хранилище Google Cloud и
применил анализ API видения, поэтому здесь
мы имеем кластер изображений он является
80 тысяч изображений и каждый кластер
этикетки, такие как снег или транспорт
жилой площади означает, что
кластер похожих изображений для
пример, если вы посмотрите здесь, давайте
перейти к установке так каждая отдельная точка
представляет собой миниатюру
загруженные изображения , так что если вы идете в
растение
В кластере должен быть какой-то кластер
о, о, это не показывает, почему
я перерисовываю это, возможно, потому, что я использую
привязывать
хорошо, пойдем прямо к кошке
кластера, поэтому в этом кластере у нас много
многие кошки и ближе к кошачьей коре
у нас есть корка для собак, давайте вернемся назад
для кластера кошек, и если вы нажмете на
изображение, и вы будете
вид анализа результата API
право этого API думает , что это должно быть
мимика кошки, и это кошка как домашнее животное или
это должно быть британская короткошерстная
так это это некоторые вещи , которые вы можете сделать
с технологией глубокого обучения и
эти результаты возвращаются в JSON
формат erectus и со статистическими
растягивает мы можем показать его в графическом интерфейсе , если
изображение содержит любой текст внутри него, тогда
мы можем вернуться, превратить его в
крайний пример с этим вы можете иметь
строка как эти три кенгуру
пересекая рядом с вами изображения, если изображения
содержит лица, и этот API не
поддерживать личную идентификацию или
личное признание, но оно может
определить местоположение граней с
достопримечательности, такие как нос и
рот, а также он может распознать
эмоции, такие как радость и гнев
и удивительно в этом уровне достоверности
и если ваше изображение содержит какие-либо популярные
такие места, как этот API-интерфейс ужина, могут
вернуть имя знака API
думает, что это должен быть образ Citi
Полевой стадион в Нью-Йорке с
долготу и широту, чтобы вы могли легко
в пометке на Картах Google
это слишком медленно, поэтому я тоже его отключу
вы можете обнаружить продукт и корпоративные
робот
как этот Android, так это было
API Vision, поэтому он готов к использованию для
любые приложения и другой API
называемый речевым API, который также обеспечивает
предварительно обученная модель для голоса
так что вам не обязательно иметь
любой набор навыков или эксперименты с
распознавание голоса или обучение
сети для того, чтобы делать это, это просто
на API REST и API G RPC, чтобы вы могли
просто загрузите свои аудиоданные в API
и вы получите результат в
несколько секунд он поддерживает более 80
языков и диалектов, которые поддерживают как
распознавание в реальном времени и аккумулятор
признание API по-прежнему ограничено
предварительный просмотр, поэтому, если вы перейдете к речи
cloud.google.com речь , то вы должны
регистрация с формой для немедленного
ограниченный доступ к превью, но мы надеемся
обнародует его лучше , может быть , в паре
недель, я полагаю, давайте покажем некоторые
демонстрация Я не уверен, что это работает
в случае или нет, потому что это
первый раз попробовать это, и у меня есть
некоторые проблемы с акцентом, поэтому я не уверен, что я
действительно не уверен, что это работает или нет, но
лучше прямо привет это испытание I
думаю, что это не работает
возможно, сбор становится настолько медленным
привет это тест голоса
панель распознавания Google Cloud machine
учиться, о да
поэтому конечный результат — вы знаете не плохо
и вы также видели быстрый ответ
поэтому вы можете получить результат распознавания
в недавнем втором квартале в Ираке 0,5
секунд в реальном времени, так что это
api’s, но эти api здесь
предварительно подготовленной модели, так что это означает, что вы
не может обучить вашу собственную модель тем
aps и хорошо, если мы страна
заданные вопросы для тех , кто
будет ли Google вам известно
глядя на загруженные изображения или
аудиоданных для обучения вашей собственной модели или
делать еще несколько исследований и знать
те апи саудовских все наших продуктов
предоставляемая облачной платформой Google, является
находится в соответствии с условиями DCP
здесь есть несколько разделов для
данные клиентов клиента мы не рассматриваем
данные клиента, за исключением
специальные случаи для устранения неполадок или
чрезвычайной ситуации, поэтому в основном мы
не смотрите на данные гироскопа, загруженные в
облако, но в то же время, чтобы вы
может так APS не может тренироваться не может
тренинги для ваших данных или ваших
так что вот почему мы
предоставить другие варианты машины
обучение с помощью трафарета или облачной машины
изучение других рамок d-dick и
платформы, которые могут использоваться для обучения ваших
собственный набор данных тренирует вашу собственную машину
обучения и нейронной сети, что составляет 10
поэтому для растяжения Pro является открытым исходным кодом
драйвера вашего машинного интеллекта мы
опубликовали последние библиотеки
Ноябрь, и это
фактические рамки, которые мы сейчас используем
нас через Google исследование мозга Google
команда, так что это не что-то
устаревших или не выдерживающих
рамки машинного обучения, которые мы используем
сейчас в Google, например, если
вы хотите создать
ресторан работа swag DW Express Pico почему
вы можете использовать Python для записи в
одну строку кода Roxas, которую вы можете положить
образ кошки здесь этот вектор и
то у вас будет выходной вектор
что представляет этикетки
обнаруженные объекты, такие как кошка или человек
и вы можете позволить компьютерам найти
судьбы и предубеждения, поэтому так просто
а также очень просто тренироваться
ваши сети, потому что вы можете просто написать
эта единственная линия для ваших сетей
для ваших учебных данных, установленных
используя путем указания алгоритма
Градиент Страйкера установлен, что у вас нет
для реализации собственной процедурной
код или вызов — реализация каждого
логика оптимизации на самом деле я не
хорошо по математике или в тех машинах
алгоритмов, но все же могу просто скопировать и
вставьте образец кода на мой ноутбук и
Я молюсь, чтобы мои собственные наборы данных пропустили
и т. д., чтобы вы могли просто позволить
алтаря для времени выполнения
оптимизации, а также инструмент
вы очень хороший инструмент визуализации, поэтому
одна из проблем, которые мы имели в Google для
применение нейронных сетей к
проблемой производства является
отладки, поэтому, если у вас есть еще много
скрытые слои внутри нейронных сетей
вы должны проверить все эти этапы
параметров, будут ли параметры
сходятся в правильном направлении или
параметры могут быть вы знаете , происходит
и с неправильным числом, таким как
na или 0 в другом месте, так что это действительно
важно визуализировать происходящее
внутри ваших сетей и тензор
предоставляет инструмент, а также
мобильность — еще один важный аспект
рамки, поэтому, как только вы
определили ваши нейронные сети с помощью
Python-код тензорного потока, то вы можете
начните работать , и вы готовы работать
обучение или прогнозирование с помощью вашего ноутбука
как Mac или Windows Raptor, но вы
найдет, что ваш ноутбук слишком медленный
попробовать модные глубокие нервные
сети, поэтому, возможно, вы скоро захотите
купите какой-то класс GPU, а не, возможно,
2 или 3 ГБ, потому что в одном окне, но
все же обычно это занимает несколько
дни , как правило , через несколько дней или , возможно , некоторые
люди проводят несколько недель, чтобы сделать
тренинги по их нейронным сетям, чтобы он
занимает так много времени вычисления, поэтому в
в этом случае вы можете аплодировать своему тензору
потокового графика в облаке Google, чтобы вы
может использовать силу палаток или
возможно, сотни экземпляров GPU у нас есть
мы работаем в облаке Google, а также
как только вы закончите обучение
то размер наборов параметров
может вписаться в наши сотни
мегабайт или десятки мегабайт, тогда вы
может легко скопировать этот параметр в
более мелкие устройства для мобильных устройств или
IOT, такие как Android iOS или, возможно,
Малина Пи, чтобы ты знал, что можешь
есть те устройства, которые делают предсказание
как распознавание изображения или голос
сохранение без использования какого-либо интернета
соединение
все может быть реализовано внутри
рамки тензорного потока и с
при последнем входе в систему Google было около 1
месяцев назад мы объявили о новом
технология, называемая тензорным процессором
это замена не замена
возможно, дополнительная технология для
GPU и CPU так пока или, может быть, сейчас
исследователи глубоких нейронных сетей
или разработчики вне Google используют
GPU в основном для обучения нейронных
сетей, потому что это матрица
операций и с помощью графических процессоров вы можете
ускорить работу матричного офиса
в десять раз или , может быть в 40 раз быстрее , так
это то, что типичные нейронные сети
пользователи делают прямо сейчас, но
проблема устройств для GPU — это мощность
потребление каждого потребителя 100
Вт или 200 Вт на плату GPU, и мы
мы используем тысячи
они в центре Google Data и мощности
Консепсьон становится Роджерсом
проблемы, поэтому путем проектирования Asics или
редакция специально для
тензорного потока или глубоких нейронных сетей мы
были в состоянии уменьшить мощность
потребление и прибыль в десять раз
лучше для нашей работы — мощный
производительность для какого результата, и мы также
используйте специальные методы, такие как
бит, а не используя
32-битный или 16-разрядный для вычисления всего
в каждой матричной операции мы используем
квантование накладывает квантование на
8-бит, где не так уж и не так много
потеря точности, чтобы вы могли поместиться
гораздо большие параметры в очень маленькие
памяти, и мы использовали
GTP для многих производственных проектов
уже запустить поседение alphago и Google
фотографии речевые признания все это
с тех пор, как пара
месяцев фактически мы использовали GPS
менее одного года, и если вы
хочу, да, мы были у меня нет
обсуждали описания о силе
мозг Google , такие как число из
CPU GPU и TP есть, и если вы хотите
использовать силу бренда Google
инфраструктура — вот продукт, который мы
предоставить, который называется облачной машиной
обучение
crud machine learning полностью управляется
распределенной учебной среды для
ваш тестер для графика так, как только вы
написано
написал график тензорного потока и выполнил запуск
это на ноутбуке, тогда вы можете загрузить
одинаковые типы скал для графика для Google
Обучение в облачной среде, чтобы вы могли
укажите номер GPS, который вы хотите
для использования с услугой, предлагаемой вам
например, 20 узлов или 50 нот для выполнения
ускорение только обучение, когда толпа
Мао находится в ограниченном просмотре, поэтому вы
должны зарегистрироваться , чтобы начать опробовать, но
возможно, мы полагаем, что для
наличие записи общественности лучше будет
быть иногда в этом году, если вы
перейти на YouTube , то вы можете взять
посмотрите на фактическую демонстрацию
кратом бюджет подростков, где они
где он представил, продемонстрировал
фактическая вероятность мошенничества в Гетессасе
нейронные сети, которые занимают 8 часов с
один узел, но если вы загружаете тот же
тензорный график потока в электронную почту толпы
то вы можете ускорить работу
до 15 раз быстрее, что означает, что вы
может получить результат тренировок
в течение 30 минут, а не ждать
за 8 часов , что является скоростью мы
видя внутри Google любые глубокие
обучения и экстернализации
Дискография для вас, ребята, чтобы вы были
используя мощность за 40, вы за
решая ваши собственные проблемы, а также
claudemir может использоваться для производства
а также не только для обучения и
действительно мо решения он , представленные на он
продемонстрировал, что электронная почта толпы
для предсказаний тела при 300
метров в секунду, так что это
темы, которые я затронул, и теперь мы имеем
два разных продукта — это Amero
API api, как API API видения или речи
где вы можете просто загрузить свои собственные данные
облако, чтобы вы получали
результат в несколько секунд, и если вы хотите
для обучения ваших собственных нейронных сетей
то вы можете использовать попытку, используя
интенсивное рулонирование или ручное обучение машинам
так что вы можете ускорить обучение
вы находитесь или находитесь в своей сети,
если вы посмотрите на ссылки на
ресурсов этого урока, которые вы можете
начните проверять эти продукты правильно
теперь большое спасибо, да, у меня есть два
вопросы Trulia
прежде всего, несколько шагов назад
машинное обучение и нейронные сети
мм гм
вы говорили о более скрытых слоях к
более сложный алгоритм да, но Sturm
x-бойцы, они, как нам сказали в
Университет, чтобы использовать, да, вы чувствуете
сколько слоев у вас есть
что или да , да , это на самом деле
действительно хороший вопрос
так что может быть вопрос, есть ли какие-либо хорошие
практика по проектированию нейронного союза
сети, насколько я знаю
нет никакой теории, чтобы
дизайн нейронных сетей, чтобы все
даже в пятом в Google вы знаете
когда я спросил исследовательскую группу Google
и люди скажут, что вы знаете, давайте
начните с пяти 5 детей
давайте посмотрим , как это работает хорошо так
страты, и это самая большая проблема
мы имеем прямо сейчас для развертывания
нейронных сетей для ваших собственных данных или
приложений, поэтому вам нужно сделать это в
многие испытания
люди в фармацевтических компаниях
пытаясь создать новое лекарство , поэтому у вас есть
иметь другую комбинацию
obably гиперпараметры гипер параметры
означает такие параметры, как число
скрытых слоев или новых или
способ импорта данных или
извлечение функций, поэтому вам нужно попробовать
из всех различных комбинаций, которые
проблема
а также требуется много вычислений
власть да, я думаю, это то, что все делают
да, это не теория за этим, и
немного позже в презентации, но
варианты использования будут поддерживаться в ближайшем
будущее
мы переходим от пост-тренинга к
Среда выполнения может сети мы и B экспортироваться
чтобы использовать лучшую обработку для
пример, что второй вопрос пушки
может ли сеть быть экспортирована в
порядок повторного использования во встроенной обработке
например, путем экспорта хорошо, да
перед первым вопросом, который является
онлайн обучение , которое я считаю , что на
карте мира или, возможно, ваш список
ядро, но в настоящее время это не
поддерживается , но вполне возможно , что мы будем
поддерживать онлайн-обучение, где
ваши нейронные сети будут постепенно
к ним присоединяются онлайн-данные и
вопрос экспортирует да, вы можете экспортировать
настраиваемые параметры, чтобы вы
может использовать параметр для вашего
une use cases, такие как импорт
параметров в устройства IOT или, возможно,
вы можете даже скопировать эти наборы данных в
различные облачные записи AWS, чтобы узнать
прогнозы ОК базы данных тех ,
вопросы вырезаны, у кого-нибудь еще есть
вопросы нет и большое спасибо
Спасибо большое
Please follow and like us:

Be First to Comment

Добавить комментарий