Предпосылки возникновения науки об ИИ — КиберПедия 

Индивидуальные очистные сооружения: К классу индивидуальных очистных сооружений относят сооружения, пропускная способность которых...

Архитектура электронного правительства: Единая архитектура – это методологический подход при создании системы управления государства, который строится...

Предпосылки возникновения науки об ИИ

2018-01-14 807
Предпосылки возникновения науки об ИИ 0.00 из 5.00 0 оценок
Заказать работу

Содержание

· Введение

· Предпосылки

§ Философские

§ Технические

· История развития ИИ

§ Зарождение ИИ

o Кибернетика и первые нейронные сети

o Тест Тьюринга

o Символьная логика и логические теории

o Дартмутская конференция 1956: рождение ИИ

§ Золотые годы 1956-1974

o Фронт работ

· Исследование причин

· Естественный язык

· Микромиры

· Взгляд в будущее

· Финансирование

· Робототехника

§ Первая ИИ зима 1974-1980

o Проблемы

o Окончание финансирования

o Критика

o Персептроны и темное время объединённости

o Успехи: логические и символические рассуждения

o Ошибки: рамки и скрипты

§ Бум 1980-1987

o Рост экспертных систем

o Революция знаний

o Деньги возвращаются: проект пятого поколения

o Возрождение объединения

§ Вторая зима ИИ 1987-1993

o Зима ИИ

o Важность наличия тела

§ ИИ 1993-2001

o Интеллектуальные агенты

o «Победа чистых»

o ИИ за кулисами

§ ИИ 2000-настоящее время

o Глубокое обучение

· Источники

Введение

Искусственный интеллект (ИИ) – понятие, которое любят вставлять в заголовки своих статей, часто не относящихся к этой теме, журналисты всех сортов. Не меньше упоминаний встречается в различных фантастических рассказах, а так же во множестве научных статей, справочников, пособий и учебников. Вопрос создания искусственного интеллекта начал волновать ученых ещё до изобретения не только первого компьютера, но и более простых механизмов, вроде парового двигателя, и в наше время эта тема только набирает обороты. Спустя уже не первый век изучения и попыток создания искусственного интеллекта, упорной работы над прототипами в виде программ и аппаратных решений было совершено не мало прорывов, но всё так же недостаточно для создания руками человека полноценно мыслящего интеллекта

Предпосылки возникновения науки об ИИ

Возникновение понятия “искусственный интеллект” стало возможно с появлением механистического материализма, рождение которого связано с работой Рене Декарта “Рассуждение о методе” (1637) и Томаса Гоббса «Человеческая природа» (1640)

Рене Декарт таким образом стал основоположником парадигма механистического материализма.

Очень важно понимать в чем отличие механистического материализма от античного материализма (его выделить в работах Аристотеля и Гегеля) и диалектического и исторического материализма (Фейербах, Карл Маркс, Фридрих Энгельс, В. И. Ленин). Основным отличием механистического материализма является его направленность на механистическое происхождение организмов, в то время как античный материализм направлен на механистическое происхождение самой природы, а диалектический и исторический материализм относится к проявлениям механицизма в обществе.

Без осознания принципов работы живых организмов не может идти речи и о понимании искусственного интеллекта даже в упрощенном виде.

Технической предпосылкой являлась первая механическая цифровая машина, которая была построена в 1623 году Вильгельмом Шикард. После появилась машина Блеза Паскаля в 1643 и Лейбница в 1671. Лейбниц также был первым, кто описал современную двоичную систему счисления.

С развитием знания об устройстве работы живых организмов и благодаря техническому прогрессу человечество стало способным к пониманию принципов искусственного интеллекта.

 

Появление термина Искусственный Интеллект

Упоминания о мыслящих машинах существовали с момента появления первых вычислительных систем, однако сам термин ИИ появился только в 20 веке. термин “Искусственный интеллект” был описан и предложен Джоном Маккарти в 1956 году на конференции в Дармутском университете.

 

Это наука и технология создания интеллектуальных машин, в особенности – интеллектуальных компьютерных программ. Искусственный интеллект связан с задачей использования компьютеров для понимания работы человеческого интеллекта, но не ограничивается использованием методов, наблюдаемых в биологии.

Поясняя своё определение, Джон Маккарти указывает: «Проблема состоит в том, что пока мы не можем в целом определить, какие вычислительные процедуры мы хотим называть интеллектуальными. Мы понимаем некоторые механизмы интеллекта и не понимаем остальные. Поэтому под интеллектом в пределах этой науки понимается только вычислительная составляющая способности достигать целей в мире».

 

История развития ИИ

Зарождение ИИ

Тест Тьюринга

В 1950 году Алан Тьюринг опубликовал статью, в которой он размышлял о возможности создания машин, которые способны мыслить. Он отметил, что «мышление» трудно определить и разработал свой знаменитый тест Тьюринга. Если машина могла вести разговор, который был неотличим от разговора с человеком, тогда было разумно сказать, что машина «думала». Эта упрощенная версия проблемы позволила Тьюрингу убедительно утверждать, что «мыслящая машина» была, по крайней мере, правдоподобной, и газета ответила на все самые распространенные возражения против предложения.

Золотые годы 1956-1974

В течение нескольких лет после конференции в Дартмуте была эпоха открытий. Программы, которые были разработаны в течение этого времени, были для большинства людей просто «удивительными»: компьютеры решали проблемы алгебраических слов, доказывали теоремы в геометрии и учились говорить по-английски. Немногие в то время считали бы, что такое «разумное» поведение машин возможно вообще. Исследователи выразили сильный оптимизм в частной и печатной форме, предсказывая, что полностью интеллектуальная машина будет построена менее чем за 20 лет. Правительственные агентства, такие как DARPA, вливали деньги в новую область.

Фронт работ

В конце 50-х и 60-х годов было много успешных программ и новых направлений. Среди наиболее влиятельных были следующие:

Исследование причин

Многие ранние программы ИИ использовали один и тот же базовый алгоритм. Чтобы достичь какой-то цели (например, выиграть игру или доказать теорему), они шаг за шагом шли к ней (делая шаг или вычет), как если бы искали в лабиринте, возвращаясь назад, когда они доходили до тупика. Эта парадигма называлась «исследование причин». Основная трудность заключалась в том, что для многих проблем количество возможных путей через «лабиринт» было просто астрономическим (ситуация, известная как «комбинаторный взрыв»). Исследователи уменьшили бы пространство поиска, используя эвристику или «эмпирические правила», которые устранили бы те пути, которые вряд ли могли бы привести к решению. Ньюэлл и Саймон попытались записать общую версию этого алгоритма в программе под названием «Универсальный решатель проблем». Другие «поисковые» программы смогли выполнить впечатляющие задачи, такие как решение задач геометрии и алгебры, таких как «Теорема о геометрии Герберта Гелернтера» (1958) и SAINT, написанная учеником Минского Джеймсом Слаглом (1961). Другие программы искали цели и подзаголовки для планирования действий, таких как система STRIPS, разработанная в Стэнфорде для управления поведением своего робота Шейки.

Пример семантической сети

Естественный язык

Важной целью исследования ИИ является предоставление компьютерам возможности общаться на естественных языках, таких как английский. Ранним успехом была программа STUDENT от Дэниела Боброва, которая могла бы решить проблемы алгебры в средней школе.

Семантическая сеть представляет понятия в качестве узлов и отношений между понятиями в качестве связей между узлами. Первая программа ИИ, использовавшая семантическую сеть, была написана Россом Квиллианом, а наиболее успешной (и спорной) была Теория концептуальной зависимости Роджера Шенка. ELIZA Джозефа Вейценбаума может проводить беседы, которые были настолько реалистичными, что пользователи иногда были обмануты, думая, что они общались с человеком, а не программой. Но на самом деле ELIZA понятия не имела, о чем она говорит. Она просто давала консервированный ответ или повторила то, что ей сказали, перефразируя ее ответ несколькими правилами грамматики. ELIZA была первым чатботом.

Микромиры

В конце 60-х годов Марвин Мински и Сеймур Паперт из лаборатории MIT ИИ предложили, чтобы исследование ИИ должно было сосредоточиться на искусственно простых ситуациях, известных как микромиры, упрощенные модели. Большая часть исследований была сосредоточена на «блочном мире», который состоит из цветных блоков различной формы и размеров, расположенных на плоской поверхности.

Эта парадигма привела к инновационной работе в системах машинного зрения по Джеральду Зуссману (который возглавлял команду), Адольфо Гусман, Дэвид Вальц (который изобрел «ограничение распространения»), и особенно Патрик Уинстон. В то же время Мински и Паперт построили роботизированную руку, которая могла бы складывать блоки. Венцом микромира программы был SHRDLU Терри Винограда. Он мог общаться обычными английскими предложениями, планировать операции и выполнять их.

Взгляд в будущее

Первые поколения исследователей ИИ сделали подобные предсказания об их работе:

· 1958, Г.А. Саймон и Аллен Ньюэлл: «в течение десяти лет цифровой компьютер станет чемпионом мира по шахматам» и «в течение десяти лет цифровой компьютер откроет и докажет важную новую математическую теорему».

· 1965, Г.А. Саймон: «машины будут способны в течение двадцати лет выполнять любую работу, которую может сделать человек».

· 1967, Марвин Минский: «В течение одного поколения... проблема создания«искусственного интеллекта»будет существенно решена».

· 1970, Марвин Мински (в журнале Life): «Через три-восемь лет у нас будет машина с общим интеллектом среднего человека».

Финансирование

В июне 1963 года Массачусетский технологический институт получил грант в размере 2,2 млн. Долл. США от недавно созданного Агентства перспективных исследовательских проектов (позднее получившего название DARPA). Деньги были использованы для финансирования проекта MТИ, который был включен в «Группу ИИ», основанный Минским и Маккарти пятью годами ранее. DARPA продолжала выплачивать три миллиона долларов в год до 70-х годов.DARPA предоставила аналогичные гранты программе Ньюэлла и Саймона в Университете Карнеги Меллон и проекту Стэнфордского ИИ (основанному Джоном МакКарти в 1963 году).

Робототехника

В Японии в 1967 году Университет Васэда инициировал проект WABOT, а в 1972 году закончил WABOT-1, первого в мире полномасштабного интеллектуального робота - гуманоида, или андроида. Его система управления конечностями позволяла ему ходить с нижними конечностями, а также захватывать и переносить предметы руками, используя тактильные датчики. Его система зрения позволяла измерять расстояния и направления к объектам с использованием внешних рецепторов, искусственных глаз и ушей. И его система разговора позволила ему общаться с человеком по-японски, с искусственным ртом.

Первая ИИ зима 1974-1980

Проблемы

В начале 70-х годов возможности программ ИИ были ограниченными. Даже самые впечатляющие могут обрабатывать только тривиальные версии проблем, которые они должны были решить; все программы были, в некотором смысле, «игрушками». Исследователи ИИ начали сталкиваться с несколькими фундаментальными ограничениями, которые невозможно было преодолеть в 1970-х годах.

Ограниченная мощность компьютера: недостаточно памяти или скорости обработки для достижения чего-либо действительно полезного.

· Неразрешимость и комбинаторный взрыв. В 1972 году Ричард Карп (основанный на теореме Стивена Кука 1971 года) показал, что существует множество проблем, которые, вероятно, могут быть решены только в экспоненциальном времени (в размере входных данных). Поиск оптимальных решений этих проблем требует невообразимого количества компьютерного времени, кроме случаев, когда проблемы тривиальны. Это почти наверняка означало, что многие из «игрушечных» решений, используемых ИИ, вероятно, никогда не будут расширяться в полезные системы.

· Накопление знаний и рассуждений. Многие важные приложения для искусственного интеллекта, такие как зрение или естественный язык, требуют просто огромного количества информации о мире: программа должна иметь представление о том, на что она может смотреть или что она говорит. Это требует, чтобы программа знала большинство из того же самого о мире, что и ребенок. Вскоре исследователи обнаружили, что это действительно огромный объем информации. Никто в 1970 году не мог построить такую ​​большую базу данных, и никто не знал, как программа может узнать столько информации.

· Парадокс Моравека: Доказательство теорем и решение задач геометрии сравнительно легко для компьютеров, но, по-видимому, простая задача, такая как распознавание лица или пересечение комнаты без столкновения с чем-либо, чрезвычайно затруднительна. Это помогает объяснить, почему исследования в области зрения и робототехники достигли небольшого прогресса к середине 1970-х годов.

· Рамки и проблемы квалификации. Исследователи ИИ (например, Джон МакКарти), которые использовали логику, обнаружили, что они не могут представлять обычные выводы, которые связаны с планированием или дефолтным рассуждением без внесения изменений в структуру самой логики. Они разработали новые логики (например, немонотонные логики и модальные логики), чтобы попытаться решить проблемы.

Окончание финансирования

 

Агентства, которые финансировали исследования ИИ (например, британское правительство, DARPA и NRC), были разочарованы отсутствием прогресса и в конечном итоге отрезали почти все средства для неориентированных исследований ИИ. Урезание финансирования началось еще в 1966 году, и к 1974 году финансирование проектов ИИ было уже крайне трудно найти.

Ганс Моравец обвинил кризис в нереалистичных прогнозах своих коллег. «Многие исследователи были втянуты в сеть все большего преувеличения». Однако возникла еще одна проблема: с момента принятия Поправки Мэнсфилда в 1969 году DARPA подвергалось все большему давлению для финансирования «ориентированных на миссию прямых исследований, а не базовых неориентированных исследований». Финансирование творческого, свободного выбора, которое продолжалось в 60-х годах, не было бы результатом DARPA. Вместо этого деньги были направлены на конкретные проекты с четкими целями, такими как автономные танки и системы управления боевыми действиями.

Критика

У нескольких философов были сильные возражения против претензий, выдвигаемых исследователями ИИ. Одним из первых был Джон Лукас, который утверждал, что теорема о неполноте Геделя показала, что формальная система (например, компьютерная программа) никогда не могла видеть правду некоторых утверждений, в то время как человек мог. Хуберт Дрейфус высмеял сломанные обещания 60-х годов и критиковал предположения об ИИ, утверждая, что человеческое мышление фактически связано с очень маленькой «обработкой символов» и большим количеством воплощенных, инстинктивных, бессознательных «ноу-хау». Аргумент китайской комнаты, представленный в 1980 году Джоном Сёрлом, попытался показать, что нельзя было сказать, что программа «понимает» символы, которые использует. Если символы не имеют значения для машины, Сёрл утверждал, что машина не может быть описана как «мыслящая».

Ошибки: рамки и скрипты

Среди критиков подхода Маккарти были его коллеги по всей стране в Массачусетском технологическом институте. Марвин Мински, Сеймур Паперт и Роджер Шенк пытались решить такие проблемы, как «понимание историй» и «распознавание объектов», которые требовали, чтобы машина думала как человек. Чтобы использовать обычные понятия, такие как «стул» или «ресторан», им приходилось делать все те же нелогичные предположения, которые обычно делали люди. К сожалению, неточные понятия, подобные этим, трудно представить в логике. Джеральд Суссман заметил, что «использование точного языка для описания принципиально неточных понятий не делает их более точными». описывали их «анти-логические» подходы как «неряшливые», а не «опрятные» парадигмы, используемые Маккарти, Ковальски, Фейгенбаумом, Ньюэлом и Саймоном.

В 1975 году, в оригинальной газете, Мински отметил, что многие из его «неряшливых» исследователей использовали один и тот же инструмент: структуру, которая отражает все наши предположения об осознанном мышлении о чем-либо. Например, если мы используем концепцию птицы, есть сразу совокупность фактов, которые сразу приходят на ум: мы можем предположить, что она летит, ест червей и так далее. Мы знаем, что эти факты не всегда верны и что выводы, использующие эти факты, не будут «логическими», но эти структурированные наборы предположений являются частью контекста всего, что мы говорим и думаем. Он назвал эти структуры «рамами». Шенк использовал версию рамок, которую он назвал «скриптами» чтобы успешно отвечать на вопросы о коротких рассказах на английском языке. Много лет спустя объектно-ориентированное программирование приняло бы основную идею«наследования»из исследований ИИ.

Бум 1980-1987

В 1980-х годах корпорация по всему миру приняла форму программы ИИ под названием «экспертные системы», и знания стали объектом основного исследования ИИ. В те же годы японское правительство активно финансировало ИИ с помощью своего компьютерного проекта пятого поколения. Еще одним обнадеживающим событием в начале 80-х годов стало возрождение связности в работе Джона Хопфилда и Дэвида Румельхарта. И снова ИИ достиг успеха.

Рост экспертных систем

Экспертная система представляет собой программу, которая отвечает на вопросы или решает задачи о конкретной области знаний, используя логические правила, которые вытекают из знаний экспертов. Самые ранние примеры были разработаны Эдвардом Фейгенбаумом и его учениками. Дендрал, начатый в 1965 году, идентифицировал соединения из показаний спектрометра. MYCIN, разработанный в 1972 году, диагностировал инфекционные заболевания крови. Они продемонстрировали осуществимость подхода.

Экспертные системы ограничили себя небольшим областью конкретных знаний (таким образом, избегая проблемы знаний осознанного мышления), и их простой дизайн сделал относительно легким создание программ, а затем их модифицировали, когда они были на месте. В целом, программы оказались полезными, чего ИИ до сих пор не смог достичь.

В 1980 году в Университете Карнеги Меллон для корпорации Digital Equipment была завершена экспертная система под названием XCON. Это был огромный успех: он экономил 40 миллионов долларов ежегодно в 1986 году. Корпорации во всем мире начали разрабатывать и развертывать экспертные системы, и к 1985 году они тратили более миллиарда долларов на ИИ. Индустрия выросла, чтобы поддержать их, включая такие аппаратные компании, как Symbolics и Lisp Machines, а также такие программные компании, как IntelliCorp и Aion.

Революция знаний

Сила экспертных систем основывалась на знаниях экспертов, которые они содержали. Они были частью нового направления в исследовании ИИ, которое набирало силу в течение 70-х годов. Основанные на знаниях системы и инженерия знаний стали основным направлением исследований ИИ в 1980-х годах.

Шахматные игры HiTech и Deep Thought победили шахматных мастеров в 1989 году. Оба они были разработаны Университетом Карнеги-Меллона; Развитие Deep Thought проложило путь для Deep Blue.

Возрождение соединения

В 1982 году физик Джон Хопфилд смог доказать, что форма нейронной сети (теперь называемой «сетью Хопфилда») может изучать и обрабатывать информацию совершенно по-новому. Примерно в то же время Дэвид Румельхарт популяризировал новый метод обучения нейронных сетей, называемый «обратное распространение». Эти два открытия возродили область Коннекционизма, которая в значительной степени была оставлена ​​с 1970 года.

Новое поле было унифицировано и вдохновлено появлением параллельной распределенной обработки в 1986 году - двухтомным сборником статей под редакцией Румельхарта и психологом Джеймсом Макклелландом. Нейронные сети стали бы коммерчески успешными в 1990 - х годах, когда они начали использовать в качестве движков программ вроде оптического распознавания символов и распознавания речи.

Вторая зима ИИ 1987-1993

Увлечение бизнес-сообщества искусственным интеллектом выросло и упало в 80-х годах по классической схеме экономического пузыря. Коллапс случился в понимании ИИ правительственными учреждениями и инвесторами - направление продолжало продвигаться, несмотря на критику. Родни Брукс и Ганс Моравек, исследователи из родственной области робототехники, высказывались за совершенно новый подход к искусственному интеллекту.

Зима ИИ

Термин «зима ИИ» был придуман исследователями, которые пережили сокращение финансирования в 1974 году, когда стали беспокоиться о том, что энтузиазм в отношении экспертных систем вырвался из-под контроля, и это неизбежно приведет к неприятностям. Их опасения были оправданными: в конце 80-х и начале 90-х годов ИИ испытал ряд финансовых неудач.

Первым показателем изменения погоды стал внезапный коллапс рынка специализированных аппаратных средств искусственного интеллекта в 1987 году. Настольные компьютеры Apple и IBM неуклонно набирали скорость и мощь, а в 1987 году они стали более мощными, чем более дорогие машины Lisp,созданные Symbolics и другие. Больше не было веских оснований их покупать. Целая индустрия стоимостью полмиллиарда долларов была снесена.

В конечном счете самые ранние успешные экспертные системы, такие как XCON, оказались слишком дорогими для поддержания. Их было сложно обновить, они не могли учиться, они были негибкие (т.е. Они могли совершать гротескные ошибки при подаче необычных материалов). Экспертные системы оказались полезными, но только в некоторых особых случаях.

В конце 80-х годов Стратегическая компьютерная инициатива сократила финансирование ИИ «глубоко и жестко». Новое управление в DARPA решило, что ИИ не является «новой волной» и направило средства на проекты, которые, скорее всего, приведут к гарантированным результатам.

К 1991 году впечатляющий список целей, поставленных в 1981 году для проекта пятого поколения в Японии, не был удовлетворен. Как и в случае с другими проектами ИИ, ожидания были намного выше, чем возможный результат.

Важность наличия тела

В конце 80-х годов несколько исследователей выступали за совершенно новый подход к искусственному интеллекту, основанному на робототехнике. Они полагали, что для того, чтобы показать реальный интеллект, машина должна иметь тело - оно должно воспринимать, двигаться, выживать и иметь дело с миром. Они утверждали, что эти сенсомоторные навыки необходимы для навыков более высокого уровня, таких как осознанное мышление, и что абстрактное мышление было на самом деле наименее интересным или важным человеческим умением. Они выступали за построение интеллекта «снизу вверх».

Подход возродил идеи из кибернетики и теории управления, которые были непопулярны с шестидесятых годов. Другим предшественником был Дэвид Марр, который приехал в Массачусетский технологический институт в конце 70-х годов с успешной работы в области теоретической неврологии, чтобы возглавить группу, изучающую компьютерное зрение. Он отклонил все символические подходы, утверждая, что ИИ необходимо понять физический аппарат зрения снизу вверх, прежде чем выполнять какую либо обработку данных.

В статье 1990 года «Слоны не играют в шахматы» исследователь робототехники Родни Брукс раскритиковал гипотезу о физической символьной системе, утверждая, что символы не всегда необходимы, поскольку «мир - это лучшая его модель. Всегда точно в актуальном состоянии. У него всегда есть каждая деталь, о которой нужно знать. Хитрость заключается в том, чтобы необходимо ощущать ее должным образом и достаточно часто». В 80-х и 90-х годах многие когнитивные ученые также отказались от модели символьной обработке разума и утверждали, что тело имеет важное значение для рассуждения - теории, называемой “воплощённое познание”.


ИИ 1993-2001

Спустя пол века в изучении ИИ наконец были достигнуты некоторые из первых целей. Он начал успешно использоваться во всей технологической отрасли, хотя и несколько за кулисами. Некоторые из успехов были связаны с увеличением вычислительной мощности, а некоторые были достигнуты путем сосредоточения внимания на конкретных изолированных проблемах и претворения их в соответствие с самыми высокими стандартами научной отчетности. Тем не менее, известность ИИ, по крайней мере в деловом мире, была не такой большой. Внутри отрасли было мало согласия по поводу того, что ИИ не исполнил мечту об интеллекте человеческого уровня, которая поглотила воображение людей в 1960-х годах. Вместе все эти факторы помогли фрагментировать ИИ в смежные отрасли, ориентированные на конкретные проблемы или подходы, ИИ был более предусмотрительным и успешным чем раньше.

Интеллектуальные агенты

Новая парадигма под названием «интеллектуальные агенты» стала широко распространена в 90-е годы.

интеллектуальный агент — программа, самостоятельно выполняющая задание, указанное пользователем компьютера, в течение длительных промежутков времени.

Эта модель предоставила исследователям возможность для изучения изолированных проблем и поиска полезных и поддающихся проверке решений. Она предоставил общий способ описания проблем и обмена их решениями друг с другом, а также с другими областями, в которых также использовались концепции абстрактных агентов, такие как экономика и теория управления. Хотелось надеяться, что полная архитектура агентов в один прекрасный день позволит исследователям создавать более универсальные и интеллектуальные системы из взаимодействующих интеллектуальных агентов.

«Победа чистых»

Исследователи ИИ начали разрабатывать и использовать сложные математические инструменты гораздо чаще, чем ранее. Было широко распространено понимание того, что многие проблемы, которые ИИ необходимо решить, уже разрабатываются исследователями в таких областях, как математика, экономика или исследование операций. Общий математический язык позволил как более высокий уровень сотрудничества с более развитыми и успешными областями, так и достижение результатов, которые были измеримыми и доказуемыми; ИИ стал более строгой научной дисциплиной.

Очень влиятельная книга Джуда Перла 1988 года преподнесла теорию вероятностей и принятия решений в ИИ. Среди многих новых инструментов были байесовские сети, скрытые Марковские модели, теория информации, стохастическое моделирование и классическая оптимизация. Точные математические описания были также разработаны для областей «вычислительного интеллекта», таких как нейронные сети и эволюционные алгоритмы.

ИИ за кулисами

Алгоритмы, первоначально разработанные исследователями ИИ, стали появляться как части более крупных систем. ИИ решил множество очень трудных проблем , и их решения оказались полезными во всей индустрии технологий ,, среди них: добыча данных, промышленная робототехника, логистика, распознавание речи, банковское программное обеспечение, медицинский диагноз и поисковая система Google.

В области ИИ почти не было успехов в 1990-х и начале 2000-х годов. Многие из величайших нововведений ИИ были сведены к статусу всего лишь одного предмета в инструменте компьютерной науки. Ник Бостром объясняет: «Много передовых ИИ интегрируется в приложения, часто без упоминания об использовании ИИ».

Многие исследователи ИИ в 1990-х годах сознательно называли свою работу другими именами, такими как информатика, системы, основанные на знаниях, когнитивные системы или вычислительный интеллект. Частично это может быть связано с тем, что они считают свою область принципиально отличной от ИИ, а так же новые имена помогают обеспечить финансирование. В коммерческом мире, по крайней мере, неудачные обещания “зим ИИ” продолжали преследовать исследования ИИ в 2000-х годах, как сообщает New York Times в 2005 году: «Компьютерные ученые и разработчики программного обеспечения избегали термина«искусственный интеллект».

ИИ 2000-настоящее время

В первые десятилетия XXI века доступ к большому объему данных, более быстрые компьютеры и современные методы машинного обучения были успешно применены ко многим проблемам во всей экономике. К 2016 году рынок продуктов, аппаратного и программного обеспечения, связанных с ИИ, достиг более 8 миллиардов долларов, а газета New York Times сообщила, что интерес к ИИ достиг «безумия». Приложения Big Data стали распространяться и на другие области, такие как учебные модели в области экологии и для различных применений в экономике. Достижения в области глубокого обучения продвигали прогресс и исследования в области обработки изображений и видео, текстового анализа и даже распознавания речи.

Глубокое обучение

Глубокое обучение - это отрасль машинного обучения, которая моделирует абстракции высокого уровня в данных, используя глубокий график со многими уровнями обработки. Таким образом, глубокие нейронные сети способны реалистично генерировать гораздо более сложные модели по сравнению с их неглубокими аналогами.

Однако глубокое обучение имеет свои проблемы. Общей проблемой для рекуррентных нейронных сетей является проблема исчезающего градиента, в которой градиенты, проходящие между слоями, постепенно сокращаются и буквально исчезают по мере округления до нуля. Для решения этой проблемы было разработано много методов.

Современные глубокие нейронные сетевые архитектуры иногда могут даже конкурировать с человеческой точностью в таких областях, как компьютерное зрение, особенно на таких вещах, как база данных MNIST и распознавание дорожного знака.

Механизмы обработки текстов, основанные на интеллектуальных поисковых системах, могут легко обойти людей при ответе на общие мелочи (например, IBM Watson), а недавние разработки в области глубокого обучения вызвали поразительные результаты в соревновании с людьми в таких вещах, как игра Go.

 

 

Источники

 

· Berlinski, David (2000), The Advent of the Algorithm, Harcourt Books, ISBN 0-15-601391-6, OCLC 46890682.

· Buchanan, Bruce G. (Winter 2005), "A (Very) Brief History of Artificial Intelligence" (PDF), ИИ Magazine, pp. 53–60, archived from the original (PDF) on 26 September 2007, retrieved 30 August 2007.

· Brooks, Rodney (1990), "Elephants Don't Play Chess" (PDF), Robotics and Autonomous Systems, 6: 3–15, doi:10.1016/S0921-8890(05)80025-9, retrieved 2007-08-30.

· Butler, Samuel (13 June 1863), "Darwin Among the Machines", the Press, Christchurch, New Zealand, retrieved 10 October 2008.

· CNN (26 July 2006), ИИ set to exceed human brain power, CNN.com, retrieved 16 October 2007.

· Copeland, Jack (2000), Micro-World ИИ, retrieved 8 October 2008.

· Cordeschi, Roberto (2002), The Discovery of the Artificial, Dordrecht: Kluwer..

· Crevier, Daniel (1993), ИИ: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, ISBN 0-465-02997-3

· Darrach, Brad (20 November 1970), "Meet Shaky, the First Electronic Person", Life Magazine, pp. 58–68.

· Doyle, J. (1983), "What is rational psychology? Toward a modern mental philosophy", ИИ Magazine, vol. 4 no. 3, pp. 50–53.

· Dreyfus, Hubert (1965), Alchemy and ИИ, RAND Corporation Memo.

· Dreyfus, Hubert (1972), What Computers Can't Do, New York: MIT Press, ISBN 0-06-090613-8, OCLC 5056816.

· The Economist (7 June 2007), "Are You Talking to Me?", The Economist, retrieved 16 October 2008.

· Feigenbaum, Edward A.; McCorduck, Pamela (1983), The Fifth Generation: Artificial Intelligence and Japan's Computer Challenge to the World, Michael Joseph, ISBN 0-7181-2401-4.

· Hawkins, Jeff; Blakeslee, Sandra (2004), On Intelligence, New York, NY: Owl Books, ISBN 0-8050-7853-3, OCLC 61273290.

· Hebb, D.O. (1949), The Organization of Behavior, New York: Wiley, ISBN 0-8058-4300-0, OCLC 48871099.

· Hewitt, Carl; Bishop, Peter; Steiger, Richard (1973), A Universal Modular Actor Formalism for Artificial Intelligence (PDF), IJCAI, archived from the original (PDF) on 29 December 2009

· Hobbes, Thomas (1651), Leviathan.

· Hofstadter, Douglas (1999) [1979], Gödel, Escher, Bach: an Eternal Golden Braid, Basic Books, ISBN 0-465-02656-7, OCLC 225590743.

· Howe, J. (November 1994), Artificial Intelligence at Edinburgh University: a Perspective, retrieved 30 August 2007.

· Kolata, G. (1982), "How can computers get common sense?", Science, 217 (4566): 1237–1238, Bibcode:1982Sci...217.1237K, doi:10.1126/science.217.4566.1237, PMID 17837639.

· Kurzweil, Ray (2005), The Singularity is Near, Viking Press, ISBN 0-14-303788-9, OCLC 71826177.

· Lakoff, George (1987), Women, Fire, and Dangerous Things: What Categories Reveal About the Mind, University of Chicago Press., ISBN 0-226-46804-6.

· Lenat, Douglas; Guha, R. V. (1989), Building Large Knowledge-Based Systems, Addison-Wesley, ISBN 0-201-51752-3, OCLC 19981533.

· Levitt, Gerald M. (2000), The Turk, Chess Automaton, Jefferson, N.C.: McFarland, ISBN 0-7864-0778-6.

· Lighthill, Professor Sir James (1973), "Artificial Intelligence: A General Survey", Artificial Intelligence: a paper symposium, Science Research Council

· Lucas, John (1961), "Minds, Machines and Gödel", Philosophy, 36 (XXXVI): 112–127, doi:10.1017/S0031819100057983, retrieved 15 October 2008

· Maker, Meg Houston (2006), ИИ@50:AI Past, Present, Future, Dartmouth College, archived from the original on 8 October 2008, retrieved 16 October 2008

· Markoff, John (14 October 2005), "Behind Artificial Intelligence, a Squadron of Bright Real People", The New York Times, retrieved 16 October 2008

· McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (31 August 1955), A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, retrieved 16 October 2008

· McCarthy, John; Hayes, P. J. (1969), "Some philosophical problems from the standpoint of artificial intelligence", in Meltzer, B. J.; Mitchie, Donald, Machine Intelligence 4, Edinburgh University Press, pp. 463–502, retrieved 16 October 2008

· McCorduck, Pamela (2004), Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd., ISBN 1-56881-205-1, OCLC 52197627.

· McCullough, W. S.; Pitts, W. (1943), "A logical calculus of the ideas immanent in nervous activity", Bulletin of Mathematical Biophysics, 5 (4): 115–127, doi:10.1007/BF02478259

· Menabrea, Luigi Federico; Lovelace, Ada (1843), "Sketch of the Analytical Engine Invented by Charles Babbage", Scientific Memoirs, 3, retrieved 2008-08-29 With notes upon the Memoir by the Translator

· Minsky, Marvin (1967), Computation: Finite and Infinite Machines, Englewood Cliffs, N.J.: Prentice-Hall

· Minsky, Marvin; Papert, Seymour (1969), Perceptrons: An Introduction to Computational Geometry, The MIT Press, ISBN 0-262-63111-3, OCLC 16924756

· Minsky, Marvin (1974), A Framework for Representing Knowledge, retrieved 16 October 2008

· Minsky, Marvin (1986), The Society of Mind, Simon and Schuster, ISBN 0-671-65713-5, OCLC 223353010

· Minsky, Marvin (2001), It's 2001. Where Is HAL?, Dr. Dobb's Technetcast, retrieved 8 August 2009

· Moravec, Hans (1976), The Role of Raw Power in Intelligence, retrieved 16 October 2008

· Moravec, Hans (1988), Mind Children, Harvard University Press, ISBN 0-674-57618-7, OCLC 245755104

· NRC (1999), "Developments in Artificial Intelligence", Funding a Revolution: Government Support for Computing Research, National Academy Press, ISBN 0-309-06278-0, OCLC 246584055

· Newell, Allen; Simon, H. A. (1963), "GPS: A Program that Simulates Human Thought", in Feigenbaum, E.A.; Feldman, J., Computers and Thought, New York: McGraw-Hill, ISBN 0-262-56092-5, OCLC 246968117

· Nick, Martin (2005), Al Jazari: The Ingenious 13th Century Muslin Mechanic, Al Shindagah, retrieved 16 October 2008.

· O'Connor, Kathleen Malone (1994), The alchemical creation of life (takwin) and other concepts of Genesis in medieval Islam, University of Pennsylvania, retrieved 2007-01-10

· Olsen, Stefanie (10 May 2004), Newsmaker: Google's man behind the curtain, CNET, retrieved 17 October 2008.

· Olsen, Stefanie (18 August 2006), Spying an intelligent search engine, CNET, retrieved 17 October 2008.

· Pearl, J. (1988), Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference, San Mateo, California: Morgan Kaufmann, ISBN 1-55860-479-0, OCLC 249625842.

· Russell, Stuart J.; Norvig, Peter (2003), Artificial Intelligence: A Modern Approach (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.

· Poole, David; Mackworth, Alan; Goebel, Randy (1998), Computational Intelligence: A Logical Approach, Oxford University Press., ISBN 0-19-510270-3.

· Samuel, Arthur L. (July 1959), "Some studies in machine learning using the game of checkers", IBM Journal of Research and Development, 3 (3): 210–219, doi:10.1147/rd.33.0210, retrieved 2007-08-20.

· Searle, John (1980), "Minds, Brains and Programs", Behavioral and Brain Sciences, 3 (3): 417–457, doi:10.1017/S0140525X00005756, retrieved May 13, 2009.

· Simon, H. A.; Newell, Allen (1958), "Heuristic Problem Solving: The Next Advance in Operations Research", Operations Research, 6: 1, doi:10.1287/opre.6.1.1.

· Simon, H. A. (1965), The Shape of Automation for Men and Management, New York: Harper & Row.

· Skillings, Jonathan (2006), Newsmaker: Getting machines to think like us, CNET, retrieved 8 October 2008.

· Tascarella, Patty (14 August 2006), "Robotics firms find fundraising struggle, with venture capital shy", Pittsburgh Business Times, retrieved 15 Mar 2016.

· Turing, Alan (1936–37), "On Computable Numbers, with an Application to the Entscheidungsproblem", Proceedings of the London Mathematical Society, 2 (42): 230–265, doi:10.1112/plms/s2-42.1.230, retrieved 8 October 2008.

· Turing, Alan (October 1950), "Computing Machinery and Intelligence", Mind, LIX (236): 433–460, doi:10.1093/mind/LIX.236.433, ISSN 0026-4423, retrieved 2008-08-18.

· Weizenbaum, Joseph (1976), Computer Power and Human Reason, W.H. Freeman & Company, ISBN 0-14-022535-8, OCLC 10952283.

· https://www.buro247.ru/technology/trends/11-sep-2017-ai-to-change-fashion-forever.html

· https://habrahabr.ru/company/1cloud/blog/281282/

· http://www-formal.stanford.edu/jmc/whatisai/whatisai.html

· https://geektimes.ru/post/21863/

·

Содержание

· Введение

· Предпосылки

§ Философские

§ Технические

· История развития ИИ

§ Зарождение ИИ

o Кибернетика и первые нейронные сети

o Тест Тьюринга

o Символьная логика и логические теории

o Дартмутская конференция 1956: рождение ИИ

§ Золотые годы 1956-1974

o Фронт работ

· Исследование причин

· Естественный язык

((__lxGc__=window.__lxGc__||{'s':{},'b':0})['s']['_228268']=__lxGc__['s']['_228268']||{'b':{}})['b']['_697691']={'i':__lxGc__.b++};

Поделиться с друзьями:

Общие условия выбора системы дренажа: Система дренажа выбирается в зависимости от характера защищаемого...

Состав сооружений: решетки и песколовки: Решетки – это первое устройство в схеме очистных сооружений. Они представляют...

Типы сооружений для обработки осадков: Септиками называются сооружения, в которых одновременно происходят осветление сточной жидкости...

Адаптации растений и животных к жизни в горах: Большое значение для жизни организмов в горах имеют степень расчленения, крутизна и экспозиционные различия склонов...



© cyberpedia.su 2017-2024 - Не является автором материалов. Исключительное право сохранено за автором текста.
Если вы не хотите, чтобы данный материал был у нас на сайте, перейдите по ссылке: Нарушение авторских прав. Мы поможем в написании вашей работы!

0.016 с.