Press "Enter" to skip to content

How will new technologies and AI challenge what it means to be human? | Paul Wolpe | TEDxAtlanta


[Музыка]
так в течение 35 лет я изучал этику
медицинской науки и техники и
сейчас мы находимся в то время, когда они
вопросы так же важны и как
Для нас крайне важно участвовать как в любое время
моя карьера
такие вещи, как нейро технология генетики
и биотехнология искусственная
интеллект не только собирается
изменить общество в целом они
на самом деле собирается оспаривать то , что он
значит быть человеком и что я хочу сделать
сегодня немного поговорим о том, как
технология бросает нам вызов, как она меняется
нам, как это меняет нашу этику и как
в конечном итоге сама технология собирается
дать нам новые инструменты для борьбы с этими
очень этические вопросы, через которые я
назвать глубокую этику, так что эти вопросы
этика технологии в новостях
каждый день вы видели их в своих новостях
каналы вы видели их в газетах
возможно, вы читали о эй хлама мы
Китайские ученые, которые изменили
генетически человеческие эмбрионы, то женщина
согласился на имплантацию этих эмбрионов
и родила девочек — близнецов в первый
когда-либо рожденные люди, которые имели свои
геномы изменены медицинской наукой или
может быть, вы слышали о Джордж Черч
вероятно, самый большой живой молекулярный
биолог в Гарварде и Массачусетском технологическом институте, который имеет
решил вернуть вновь ввести
вымершие виды путем клонирования шерстистых
мамонт он уже получил ДНК
шерстистые мамонты из останков в
Вечная мерзлота в Сибири у него срослась
эти гены в клетки слона и тому
идеи в конце концов клонировать вату
мамонты только что заявили в слоне и
заселить тундру этим вымершим
вид
или было много рекламы о
искусственный интеллект и его предвзятость
это программное обеспечение для распознавания лиц
дифференцированно может обнаружить человек
разные расы и ошибочно идентифицируют черных
женщины азиаты и др или ипотека AI
программы, которые дискриминируют
конкретные почтовые индексы или человека Амазонки
программа AI ресурсов, которая была разработана
помочь Amazon выбрать лучших кандидатов
из своей базы данных людских ресурсов и
в конечном итоге по-разному выбирая мужчин или
возможно автоматизированные автомобили этих транспортных средств
собираются идти по дороге и
в условиях кризиса придется сделать
решения о том, что делать, я падаю
в стену и поставить под угрозу моих пассажиров
или я поверну налево и ударить тех,
пешеходы впервые мы
придется создавать этические
алгоритмы, которые мы должны научить их
транспортное средство, как принимать этические решения
Впервые машины будут
принятие этических решений, которые будут иметь
глубокое воздействие на людей или
Facebook, который в новостях все
время о вопросах конфиденциальности и продажи
Данные, которые должны были иметь дело с тем, что
дезинформация использовалась на выборах
пытаясь повлиять на выборы или просто
сама проблема этого психологического
зависимость от наших КПК и от социальных
СМИ эти вопросы технологии
с нами в течение очень долгого времени, и они
только собираюсь получить больше и больше
важно , что мы говорим о них все
раз вы, вероятно, говорили о многих
такого рода вопросы за обедом сегодня
мы обсуждали их за обеденным столом
над третьим в нашем
Facebook кормит через Twitter эти
виды вопросов рассматриваются в нашем
залы судебных заседаний
в нашем законодательном органе на самом деле я социальный
ученый и одна из вещей, которые мы
понять в моей области , что путь
общество развивается этически через
эти самые разговоры миллионы
разговоры, которые у нас есть каждый день
между нами в судах в средствах массовой информации
что движет обществом вперед этически
это постоянная этическая
Разговор, так что я хочу сделать сейчас
сделать шаг и сказать пару слов о
этика, потому что я думаю, что мы медвежьи
как нас учат о том, что этика
и как думать об этом, так что
этика этика это обсуждение ценностей
Я учу студентов-медиков все время
и я даю им дело, и я говорю, что
об этом случае этично и что они
должны извлечь из него, каковы
ценности в игре в этом конкретном
Ситуация однако нас учат
неправильно об этом, что я имею в виду под
что каждый в аудитории может заполнить
в этом предложении этика о том, что
правильно и неправильно, если это то, что мы
учил и на самом деле это правда, когда мы
учил его в первом классе второго класса
не воровать , не лгать , не ударить
одноклассники но взрослые этические решения
не о правильном и неправильном, что может
быть шокирующей вещью, чтобы услышать, но на самом деле
если вы думаете об этическом
проблемы, которые у вас были в вашей жизни или
этические разговоры у вас с вашим
друзья это почти всегда
писать вещи в конфликте с ценностями как
из которых нельзя почитать, когда я даю
студенты-медики те случаи, они
звучит как пациент хочет
освободить себя от медицинской консультации
Вы не думаете, что это хорошая идея, что
если ты сделаешь
вы должны уважать автономию пациента в
право пациента сделать свое
решения или ваше обязательство
что в интересах пациента
вот как выглядят взрослые этические проблемы
нравится положительным ценностям в конфликте
если судья так милосердия или справедливости вашего
друг читы на тест лояльности к
друг или обязательство перед учреждением
ваш партнер выходит в одежде
это один размер слишком маленькая честность или
сострадание или, может, или, может быть, просто
самосохранение это виды
вопросы, которые взрослые имеют все время и
это не просто люди в целом
масштаб, чтобы общество ценит индивида
автономия и / или общественные нужды и
Конечно, мы утверждаем, что в нашем политическом
система, и это часть того, как мы весим
эти ценности друг против друга это то, что
этика есть и она дифференцирует
общество для другого, потому что это есть
много много разных этических ценностей
справедливость честность обязанность прозрачности и
разные общества создают разные
Исчисление этических ценностей и это
что отличается от американского
общество и японское общество и Apache
общество это целое созвездие
как мы взвешиваем наши ценности теперь давайте обратимся
вернуться к технологии, потому что мой аргумент
является то, что технология оказывает глубокое влияние
как мы движемся во времени о том, как мы весим
ценности, и я хочу дать вам пару
примеров так первый пример
плагиат мы все думаем о том что
плагиат , когда вы берете кого-то
чужая интеллектуальная собственность, что мы можем
не понимаю, что плагиат, как мы
думать об этом сегодня был продуктом
17-го века там действительно не было
Плагиат до этого Аристотеля для
пример написал, что имитация была то, что он
надеялся, что он надеялся, что
кто-нибудь придет и скажет предложение
что он получил от Аристотеля и сказать это как
если он его, то кем он был
надеясь, что он хотел влияния не
интеллектуальная собственность, и это путь
много продуктов великих умов
считалось до 17-го века
так что хорошо изменилось с одной стороны
было много социальных изменений, которые
привело к этому, но был также
важные технологические изменения
к этому, и это называлось печать
пресса , потому что теперь в первый раз , когда вы
может выложить все ваш интеллектуал
идеи в объеме, который может быть массовым
распределены и монетизированы, так что теперь у вас было
инвестиции в собственность
виды вещей , которые вы должны были сказать и
вот так прошло три века
это то, что меня учили, это то, что я
начал учить своих учеников не
плагиат вот что такое плагиат, но
тогда что-то изменило современное
цифровой век изменил природу
плагиат, потому что это изменило
технология плагиата в детстве
или в молодости я бы
подпишите книгу, скопируйте ручкой
или напечатайте это на пишущей машинке было очень
умышленное действие теперь вы можете скопировать и
вставить в секунду или взять музыку где
Вы можете взять поток из куска
музыка и положить его в другой поток и
легко создавать затор с помощью инструментов, которые
у всех нас есть на наших компьютерах это
меняет природу того, как мы думаем о
плагиат и плагиат тридцать лет
теперь будет очень отличаться от него
было тридцать лет назад, и мы в
Академия должна начать думать о том, как
мы собираемся изменить наши уроки о
плагиат, так что это пример из
История теперь я собираюсь дать вам
пример в будущем это
автоматизированное оружие, что эти устройства
иметь возможность вступить в войну
театр выбирает вражеского бойца и
убить его тех, кто выступает за эти
устройства говорят, что взгляд они собираются
уменьшить жертвы среди гражданского населения, потому что
эти устройства не боятся быть
выстрел они не нервничают, у них есть
действительно точные детекторы, и у них есть
действительно точные снимки, и поэтому мы будем
значительно уменьшить побочный ущерб
но то , что это также означает, что воля
Удалить
человеческое агентство от решения убить
другой человек, которого мы берем
человек из этого решения, и это
не просто маленький пример в автоматизированном
оружие очень конкретный пример, это
еще более широкая проблема, потому что если вы читаете
литература и AI мы движемся
к тому, что большинство экспертов AI считают
ошибка супер интеллектуального искусственного
интеллект, где из-за его
необычайная способность собирать
информация от сотен миллионов
миллиарды триллионов точек данных AI
будет превышать человеческое нападение
разведки он собирается быть в состоянии
понимать вещи, которые мы не можем понять
и потому что мы не можем понять их это
не может объяснить их нам, и это будет
начинаем принимать решения и мы собираемся
чтобы решить, мы просто берем те
решения как должное, хотя
нет человеческого агентства и тех,
решения или мы боремся с этим
тенденция и утверждать, что может быть хуже
решения, потому что ИИ может понять это
выпускать лучше, чем в январе
Томас Фридман из Нью-Йорк Таймс
написал статью все идет
глубоко и хотя это был только январь
2019 года он предложил слово
2019 должен быть глубоким, потому что мы говорим
о глубоком искусственном интеллекте и глубоком машинном обучении
и глубокое распознавание лица, так что
это слово глубоко подразумевает, что оно означает
способность абстрагировать сложность в
новые способы сделать то, что я сказал
ИИ смотрит на необычайную широту
данных и получить новые идеи из этого мы
не было инструментов, чтобы сделать это раньше
Раньше эта сложность была
Проблема в настоящее время сложность является ресурсом и
ИИ сможет сделать это в новом
способы, что я хочу сделать, это спорить
или предположить, что ИИ также поможет
нам со своими проблемами через то, что я
называть глубокую этику, как мы сделали ату
Чол решения в прошлом через человека
понимание через сотрудничество через
эксперты пишут книги и говорят об этом
продолжается уже 3000 лет
у нас все еще есть это, и мы всегда будем иметь
что, но я хочу предположить, что есть два
новые ресурсы у нас есть, что может
на самом деле помочь нам решить некоторые из очень
Проблемы, которые технология поднимает
во-первых, это то, что мы могли бы думать как
коллективный разум для первого
время в истории человечества мы можем иметь
разговоры через огромное количество
человеческие существа каждый один узел, как один
Нейрон в социальном сознании людей из
разные культуры из разных
фоны через социальные медиа могут
создать то, что мы часто называем разумом
это способность использовать ресурсы
человеческий интеллект по всему миру, чтобы
решать проблемы так, как мы никогда не могли
до
и тогда наш второй новый ресурс
Сам искусственный интеллект в конце концов
это может смотреть через миллионы миллиардов
триллионы предметов и попытаться понять
общего между ними, что мы не делаем
иметь способность хорошо понимать
этические решения являются данными, поэтому ИИ будет
возможность просматривать всю историю
этического разговора можно посмотреть на
сотни тысяч миллиардов этических
решения
что он найдет, он откроет новое
понимание этики, я не знаю, что это
точка
он поймет их по-новому и
поэтому мы сталкиваемся с технологическим будущим
глубокая этическая проблема, но вместе
человеческое понимание нашего коллектива
интеллект и новый инструмент ИИ может
помочь нам всем договориться об этом технологическом
цель будущее спасибо
[Аплодисменты]
[Музыка]
[Аплодисменты]
Please follow and like us:

Be First to Comment

Добавить комментарий