Основные подходы в определении понятия информации (характеристика информации как устранённой неопределённости, снятой неразличимости, отражённого разнообразия) — КиберПедия 

Адаптации растений и животных к жизни в горах: Большое значение для жизни организмов в горах имеют степень расчленения, крутизна и экспозиционные различия склонов...

Индивидуальные очистные сооружения: К классу индивидуальных очистных сооружений относят сооружения, пропускная способность которых...

Основные подходы в определении понятия информации (характеристика информации как устранённой неопределённости, снятой неразличимости, отражённого разнообразия)

2020-11-02 110
Основные подходы в определении понятия информации (характеристика информации как устранённой неопределённости, снятой неразличимости, отражённого разнообразия) 0.00 из 5.00 0 оценок
Заказать работу

ОСНОВНЫЕ ПОДХОДЫ В ОПРЕДЕЛЕНИИ ПОНЯТИЯ ИНФОРМАЦИИ (ХАРАКТЕРИСТИКА ИНФОРМАЦИИ КАК УСТРАНЁННОЙ НЕОПРЕДЕЛЁННОСТИ, СНЯТОЙ НЕРАЗЛИЧИМОСТИ, ОТРАЖЁННОГО РАЗНООБРАЗИЯ)

ОСНОВНЫЕ ПОДХОДЫ В ОПРЕДЕЛЕНИИ ПОНЯТИЯ ИНФОРМАЦИИ. ИСТОРИЯ СТАНОВЛЕНИЯ ПОНЯТИЯ ИНФОРМАЦИЯ

«Информация» от лат. — разъяснение, изложение, осведомленность. Сначала под этим словом понимали «представление», «понятие», затем — «сведения», «передачу сообщений». В XX в. бурное развитие получили средства связи (телефон, телеграф, радио), назначение которых заключалось в передаче сообщений. Требовалась разработка теории передачи сообщений, или теории информации. Основным стал вопрос о возможности измерения количества информации.

Попытки количественного измерения информации предпринимались неоднократно. Р.Фишером (1921) в процессе решения вопросов математической статистики. Проблемами хранения информации, передачи ее по каналам связи и задачами определения количества информации занимались Р.Хартли (1928) и Х.Найквист (1924). Хартли заложил основы теории информации, определив меру количества информации для некоторых задач. Наиболее убедительно эти вопросы были разработаны и обобщены американским инженером Клодом Шенноном в 1948. Тогда началось интенсивное развитие теории информацию

Основные подходы: - связанные с количественным аспектом понятия информации без учета смысловой стороны информации. В результате которых

были созданы кибернетические устройства, вычислительные машины и пр. Все это стало возможным благодаря достижениям теории информации. Для того чтобы применить математические средства для изучения информации, потребовалось отвлечься от смысла, содержания информации. Отправной точкой для информационной оценки события остается - множество отличных друг от друга событий и соответственно сообщений о них. Теория информации основана на вероятностных, статистических закономерностях явлений. В «структурно-синтаксическую» сторону ее передачи, т. е. выражают отношения сигналов.

- Попытки оценить содержательную сторону информации дали толчок к развитию семантической (смысловой) теории информации. Семиотика —

теорией знаковых систем.

ХАРАКТЕРИСТИКА АЛГОРИТМІЧЕСКОГО ПОДХОДЯ К ОПРЕДЕЛЕНИЯ ПОНЯТИЯ ИФОРМАЦИИ

Очень близка к «разнообразностной» трактовке информации идея алго­ритмического измерения ее количества, выдвинутая в 1965 г. А. Н. Колмо­горовым. СУТЬ - количество информации определяется как минимальная длина программы, позволяющей преобразовать один объект (множество) в другой (множество). Чем больше различаются два объекта между собой, тем сложнее (длиннее) программа перехода от одного объекта к другому. Так, воспроизвести последовательность букв а, а, а можно при помощи очень простой программы. Несколько большей окажется длина программы, восстанавливающей последовательность а, в, с, а, в, с,... Длина программы при этом измеряется количеством команд (операций), позволяющих вос­произвести последовательность. Этот подход, в отличие от подхода Шен­нона, не базирующийся на понятии вероятности, позволяет, например, оп­ределить прирост количества информации, содержащейся в результатах расчета, по сравнению с исходными данными. Вероятностная теория ин­формации на этот вопрос не может дать удовлетворительного ответа.

ХАРАКТЕРИСТИКА ИНФОРМАЦИИ КАК ОТРАЖЁННОГО РАЗНООБРАЗИЯ

Рассмотрим понятие информации как отраженного разнообразия. Источником разнообразия, по мнению В. М. Глушкова, является неоднородность распределения материи и энергии в пространстве и во времени. Отсюда и определение, данное В. М. Глушковым: информация — это мера неоднородности распределения материи и энергии в пространстве и во времени, показатель изменений, которыми сопровождаются все происходящие в мире процессы. Если теперь перейти к более общему определению, то можно считать информацию свойством материи.

КОЛИЧЕСТВО ИНФОРМАЦИИ, ЕЕ ОПРЕДЕЛЕНИЕ. ЕДИНИЦА ИНФОРМАЦИИ. ПОНЯТИЕ ЭНТРОПИИ В ТЕОРИИ ИНФОРМАЦИИ.

ПОНЯТИЕ ТЕЗАУРУСА.

Все здание человеческого знания, согласно этой модели, можно рассматривать в виде совокупности смысловыражающих элементов и смысловых отношений между ними. Множество смысловыражающих элементов и смысловых отношений на нем на­зывается тезаурусом. Слово «тезаурус» происходит от греческого — сокровище, со­кровищница, все огромное множество понятий и отношений между ними, иными сло­вами, тезаурус составляет главное сокровище человека — его знания. Таким обра­зом, ТЕЗАУРУСэто знание, представленное в виде понятий и отношений меж­ду ними, т. е. определенным образом структурированное знание.

В широком смысле Тезаурус интерпретируют как описание системы знаний о действительности, которыми располагает индивидуальный носитель информации или группа носителей. Этот носитель может выполнять функции приёмника дополнительной информации, вследствие чего изменяется и его Тезаурус. Исходный тезаурус определяет при этом возможность приёмника при получении им семантической информации. Тезаурус фактически содержит не только информацию о действительности, но и метаинформацию (сведения об информации), обеспечивающую возможность приёма новых сообщений.

 

1) 2) 3)

Возможным способом измерения эффективности коммуникации является степень изменения тезауруса реципиента при получении некоторого сообщения.

Итак, количество семантической информации может определяться долей "новых" для реципиента эле­ментов тезауруса сообщения,

Как известно, в классической теории информации понятие информации связано со снятием неопреде­ленности, которая существовала до сообщения.

 

 

4. ТИПОЛОГИЯ, ОБЩИЕ СВОЙСТВА ИНФОРМАЦИИ И ЗАКОНОМЕРНОСТИ РАСПРОСТРАНЕНИЯ ИНФОРМАЦИИ, В ЧАСТНОСТИ НАУЧНОЙ

ЗАКОН ЦИПФА

Несколько смягчить создавшееся положение в постоянно увеличивающемся потоке документов поможет закон Ципфа. В конце 40-х годов нашего столетия Дж.Ципф, собрав огромный статистический материал, попытался показать, что распределение слов естественного языка подчиняется одному простому закону, который можно сформулировать сле­дующим образом. Если к какому-либо достаточно большому тексту составить список всех встретившихся в нем слов, затем расположить эти слова в порядке убывания частоты их встречаемости в данном тексте и пронуме­ровать в порядке от 1 (порядковый номер наиболее часто встречающегося слова) до Я, то для любого слова произ­ведение его порядкового номера (ранга) г в таком списке и частоты его встречаемости в тексте будет величиной постоянной, имеющей примерно одинаковое значение для любого слова из этого списка. Аналитически закон Ципфа может быть выражен в виде: fr = c, где f - частота встречаемости слова в тексте; r - ранг (порядковый номер) слова в списке; с - эмпирическая постоянная величина. Полученная зависимость графически выражается гиперболой. Исследовав, таким образом, самые разнообразные тексты и языки, в том числе языки тысячелетней давности, Дж.Ципф для каждого из них построил указанные зависимо­сти, при этом все кривые I имели одинаковую форму — форму «гиперболической лестницы», т. е. при замене одного тек­ста другим общий характер распределения не изменялся.

ЗАКОН БРЕДФОРДА

Частным случаем вышеупомянутого закона является закон Бредфорда, непосредственно связанный с распределением документов внутри какой-либо тематической области.

Английский химик и библиограф С.Брэдфорд, исследуя статьи по прикладной геофизике и смазке, заметил, что распределения научных журналов, содержащих статьи по смазке, и журналов, содержащих статьи по прикладной геофи­зике, имеют общий вид. На основании установленного факта С. Брэдфорд сформулировал закономерность распределения публикаций по изданиям

Основной смысл закономерности состоит в следующем: если научные журналы расположить в порядке убыва­ния числа статей по конкретному вопросу, то журналы в полученном списке можно разбить на три зоны таким образом, чтобы количество статей в каждой зоне по заданному предмету было одинаковым. При этом в первую зону, так называемую зону ядра, входят профильные журналы, непосредственно посвященные рассматриваемой темати­ке. Количество профильных журналов в зоне ядра невелико. Вторую зону образуют журналы, частично посвященные заданной области, причем число их существенно возрастает по сравнению с числом журналов в ядре. Третья зона, са­мая большая по количеству изданий, объединяет журналы, тематика которых весьма далека от рассматриваемого предмета.

Таким образом, при равном числе публикаций по определенной тематике в каждой зоне число наименований жур­налов резко возрастает при переходе от одной зоны к другой. С.Брэдфорд установил, что количество журналов в третьей зоне будет примерно во столько раз больше, чем во второй зоне, во сколько раз число наименований во второй зоне больше, чем в первой, и обозначим Р 1 — число журналов в 1-й зоне, Р2 во 2-й, Р3 —число журналов в 3-й зоне.

Если а — отношение количества журналов 2-й зоны к числу журналов 1-й зоны, то закономерность, вскрытая С. Брэдфордом, может быть записана так: Р1: Р2: Р3 = 1: а: а2 или Р32 = Р2/ Р1 = a. Эту зависимость называют законом Брэдфорда. Б.Викери уточнил модель С.Брэдфорда. Он выяснил, что журналы, проранжированные (выстроенные) в по­рядке уменьшения в них статей по конкретному вопросу, можно разбить не на три зоны, а на любое нужное число зон. Если периодические издания расположить в порядке уменьшения в них количества статей по конкретному вопросу, то в полученном списке можно выделить ряд зон, каждая из которых содержит одинаковое количество статей. Примем сле­дующие обозначения: х — количество статей в каждой зоне, Тх — количество журналов, содержащих х статей; Т количество журналов, содержащих статей, т. е. сумма наименований журналов в 1-й и во 2-й зонах; Т — количество журналов, содержащих Зх статей, т. е. сумма наименований журналов в 1-й, 2-й и в 3-й зонах; Т — количество журна­лов, содержащих статей. Тогда эта закономерность будет иметь вид Тх: Т: Т: Т:... = 1: а:а2: а3:...

данное выражение называют законом Брэдфорда в толковании Б.Викери.

Если закон Ципфа характеризует многие явления социального и биологического характера, то закон Брэдфорда — это специфический случай распределения Ципфа для системы периодических изданий по науке и технике. Из этих закономерностей можно извлечь выводы огромной практической пользы. Так, если расположить какие-либо периодические издания в порядке убывания количества статей по определенному профилю, то, согласно Брэдфор­ду, их можно разбить на три группы, содержащие равное количество статей.

 

РАНГОВОЕ РАСПРЕДЕЛЕНИЕ

Упорядоченность задается ранжированием (порядком размещения) наименований элементов по частоте их появления в порядке ее убывания. Такая упорядоченная совокупность наименований элементов называется ранговым распределением. Распределения, которые в свое время изучал Ципф,— это типичные примеры ранговых распределений. Оказалось, что вид рангового распределения, его строение характеризуют ту совокупность документов, к которой от­носится данное ранговое распределение. Выяснилось, что при построении ранговые распределения в большинстве случа­ев имеют форму закономерности Ципфа с поправкой Мандельброта: fr γ = c.

При этом коэффициент γ - величина переменная. Постоянство коэффициента γ сохраняется только на среднем участке графика распределения. Этот участок принимает форму прямой, если график вышеприведен­ной закономерности построить в логарифмических координатах. Участок распределения с γ = const называется центральной зоной рангового распределения (значение аргумента на этом участке изменя­ется от ln r 1 до ln r 2). Значениям аргумента от 0 до ln r 1, соответствует зона ядра рангового распределе­ния, а значениям аргумента от ln r 2 до ln r 3 - так называемая зона усечения.

Какой же смысл заложен в существовании трех явно различаемых зон ранговых распределений? Если последнее относится к терминам, составляющим какую-либо область знаний, то ядерная зона, или зона ядра рангового распределения, содержит наиболее общеупотребительные, общенаучные термины. Центральная зона содержит термины, наиболее характерные для данной области знаний, которые в совокупности выражают ее специфичность, отличие от других наук, «охватывают ее основное содер­жание». В зоне усечения же сосредоточены термины, сравнительно редко употребляющиеся в данной области знаний.

Таким образом, основа лексики какой-либо области знаний сосредоточена в центральной зоне рангового рас­пределения.

Так, на основании анализа рангового распределения оказалось возможным дать качественные оценки докумен­тальным информационным потокам в соответствии с теми отраслями, науки, где они формировались.

 

КЛАССИФИКАЦИЯ СИСТЕМ

Системы могут быть проклассифицированы в зависимости от их природы, тогда мо­гут различаться механические, гидравлические, космические, химические и многие дру­гие классы систем, однако существует основание классификации, которое наиболее существенно для правоведения, именно деление всех систем на простые и сложные (с рядом промежуточных классов).

Важнейшей особенностью систем как кибернетических объектов является инфор­мационная природа тех объединительных связей, которые и позволяют восприни­мать систему как единый целостный объект.

" Без регулярно осуществляемой информационной связи невозможно функциони­рование самоуправляемой системы и сохранение ее целостности. Ослабление или полная потеря информационной связи элементов самоуправляемой системы неизбеж­но приводит к разрушению всех других связей, к прекращению физических и других взаимодействий в рамках системы как целостного образования, к распаду системы"

Системы можно классифицировать по обу­словленности их действия и степени сложности: Детерминированной системой принято называть такую систему, у которой составляющие ее элементы и связи между ними взаимодей­ствуют так, что если известны начальное состояние системы и программа перехода ее в другое состояние, то всегда можно точно описать, каким будет это новое состояние системы. Случайной (вероятностной, стохастической) системой называют такую сис­тему, у которой составляющие ее элементы и связи между ними взаимодействуют та­ким образом, что нельзя сделать точного, детального предсказания ее поведения, ут­верждать о последовательности состояний. Такая система всегда остается неопреде­ленной, и предсказание о ее будущем поведении никогда не выходит из рамок вероят­ностных категорий, с помощью которых это поведение описывается.

По степени сложности системы подразделяются на простые и сложные. Простая система не имеет разветвленной структуры, содержит небольшое число взаимодейст­вующих элементов и выполняет простейшие функции. Важное место в теории систем

занимает выяснение того, что есть сложная система и чем она отличается от просто системы с большим числом элементов (такие системы можно назвать громоздкими).

Сложная система - это система имеющая разветвленную структуру и значи­тельное количество взаимосвязанных и взаимодействующих элементов, выполняющих более сложные функции. Противопоставление сложных систем просто кибернетиче­ским системам можно сформулировать так: Сложная система имеет семиотическую (т.е. полноценно языковую) природу информационных связей между подсистемами в противовес простым системам, где имеется функциональная сигнализация... В слож­ной системе обмен информацией происходит на семантическом уровне в противо­вес простым системам, где все информ. связи осуществляются на синтаксическом уровне.

Системы классифицируются по характеру связей параметров системы с окружающей средой.

  • закрытые системы — какой-либо обмен энергией, веществом и информацией с окружающей средой отсутствует. Для закрытых систем характерно увеличение беспорядка (второй закон термодинамики).
  • замкнутые системы — обмениваются только энергией, но не обмениваются веществом; изолированные системы — любой обмен исключен.

Открытые системы — свободно обменивающиеся энергией, веществом и информацией с окружающей средой. В открытых системах могут происходить явления самоорганизации, усложнения или спонтанного возникновения порядка.

Классификации систем по происхождению (природной принадлежности): естественные (природные)- неорганические; биологические; экологические; другие.

Искусственные -материальные; абстрактные (идеальные); абстрактно - материальные; Смешанные - социо-технологические; организациоино-технические;социально-экономические.

7. ПОНЯТИЕ И ОПРЕДЕЛЕНИЕ НЕЧЕТКИХ МНОЖЕСТВ, СТЕПЕНИ И ФУНКЦИИ ПРИНАДЛЕЖНОСТИ В ТЕОРИИ НЕЧЕТКИХ МНОЖЕСТВ. ИСПОЛЬЗОВАНИЕ ТЕОРИИ НЕЧЕТКИХ МНОЖЕСТВ.

КИБЕРНЕТИКА

В1974 году Айзек Азимов, амер. ученый, писал «Я никогда в действительности не предпо­лагал, что искусственный интеллект возможен, и я совершенно определенно не предполагал, что застану время, когда люди будут серьезно работать в этой области". следует отметить за­слуги амер. ученого Норберта Винера, который и ввел в употребление слово "кибернетика", кото­рое в переводе с греч. означает «искусство кормчего». Основополагающее значение имела его книга "Кибернетика или управление и связь в животных и машинах" (1948год). Винер положил в основу кибернетики изучение законов передачи и переработки информации. Сущность принципа управле­ния заключается в том, что движение и действие больших масс или передача и преобразование больших количеств энергии направляются и контролируются при помощи небольших количеств энергии, несущих информацию. Этот принцип управления лежит в основе организации и действия любых управляемых систем: автоматических машин и живых организмов.

Сегодня кибернетика - полноправная наука, наука об управлении различных областях че­ловеческой деятельности, живого мира и техники. В ее становлении и развитии выдающаяся роль принадлежит ученым-академикам Акселю Ивановичу Бергу (1893-1979), Виктору Михайловичу Глушкову (1823-1982).

Предмет и методы кибернетики. Основным методом кибернетики считается метод алго­ритмического описания функционирования управляющих систем, а математическая сторона кибер­нетики - это изучение управляющих алгоритмов, т.е. алгоритмов описывающих те или иные управ­ляющие системы. Кроме математических, в кибернетике значительную роль играют так называемые "экспериментальные" методы исследования: наблюдение, статистический анализ, «логический ана­лиз и моделирование, машинный эксперимент». Основными классами кибернетических задач являются:

  • Создание эффективной теории (сопровождающееся или не сопровождающееся) разработкой ре­альных устройств, воспроизводящих составные модели, позволяющей имитировать различные ас­пекты поведения человека и других Форм поведения организмов или обеспечивающей создание искусственного интеллекта.
  • Создание моделей теорий поведения человека и других форм поведения организмов. В этих мо­делях функции, присущие человеческим существам или иным системам, реализуются точно таким же образом, как они осуществляются человеком или другими системами. Это задача моделирова­ния или имитации.
  • воспроизведение, или моделирование поведения человека или животного в целом с помощью мо­делей "конструкции" человеческого существа или животного.

Кибернетика представляет собой научный синтез целого ряда относительно отдаленных друг от друга специальных дисциплин,

Кибернетика, изучающая процессы и закономерности связи и управления, распространяет их на весьма широкую сферу объективной реальности, включая биологическую, социальную и частично более низкие формы движения материи и несет тем самым мощный интегративный заряд.

Она распадается на десятки направлений - математическая кибернетика, техническая киберне­тика, биологическая кибернетика, медицинская кибернетика, экономическая и даже - юридическая кибернетика, иногда уходит и самое первое название науки - мы все чаще слышим об информатике

 

ИНФОРМАТИКА

Informatik - это немецкое название для Computer science (компьютерная наука) - области зна­ний, которая сложилась в самостоятельную научную дисциплину в шестидесятые годы, прежде всего в США, а также Великобритании. Информатика - это наука, изучающая фундаментальные свойства, структуру, функции автоматизированных информационных систем, а также основы их проектирова­ния, создания, оценки, использования и воздействие на различные области социальной практики.

Информатика - это наука о законах и методах получения, накопления, хранения, переработ­ки и передачи информации с использованием ЭВМ. С появлением ЭВМ - универсальных автомати­ческих устройств - стало возможным решать любые задачи по переработке информации. С ЭВМ, а значит, с рождением и распространением новой автоматической технологии сбора, обработки, хра­нения и передачи информации связано появление новой научной дисциплины - информатики.

Предметом информатики выступают во взаимодействии со средой машино-информационные системы, воплощающие в себе новую, неизвестную в прошлом, технологию сбора, переработки, передачи информации. Программирование - дисциплина, которая исследует методы формулирования и решения задач с помощью ЭВМ; это важнейшая, определяющая составная часть информатики. Информатика активно преобразует другие технологии материального и нематериаль­ного производств и в конечном счете формирует новый стиль работы и новый уклад жизни.

Информатика дифференцируется в зависимости от конкретных областей применения - эконо­мики, политики, военного дела, науки. Она дифференцируется также в зависимости от уровня разви­тия технических систем, отличаясь разными техническими средствами, носителями ин формации, способами взаимодействия машин с людьми. Например, информатика, базирующаяся на втором по­колении ЭВМ, принципиально отличается от информатики, базирующейся на четвертом поколении ЭВМ. Можно вести речь об общей информатике и ее более конкретных (прикладных) ответвлениях: экономической информатике, политической, научной, военной информатике, правовой.

 

ОСНОВНЫЕ ПОНЯТИЯ ИНФОРМАТИКИ И КИБЕРНЕТИКИ.

 

ПОНЯТИЯ ИНФОРМАТИКИ

Информация - это совокупность сведений (данных), которая воспринимается из окружающей среды (входная информация), выдается в окружающую среду (исходная информация) или сохраняется внутри определенной системы.

Информационная система - взаимосвязанная совокупность средств, методов и персонала, используемая для сохранения, обработки и выдачи информации с целью решения конкретной задачи.

Информационная технология (определение Глушкова В.М.), человеко-машинную технологию сбора, обработки и передачиинформации, которая базируется на использовании вычислительной техники.

Информационные ресурсы — различные формализованные знания (теории, идеи, изобретения), данные (в том числе документы), технологии и средства их сбора, обработки, анализа, интерпретации и применения, а также обмена между источниками и потребителями информации.

Информационный процесс — Последовательность действий (операций) по сбору, передаче, обработке, анализу, выделению и использованию с различной целью информации (и/или её носителей) в ходе функционирования и взаимодействия материальных объектов.

 

ПОНЯТИЯ КИБЕРНЕТИКИ

Управление - функция организованных систем различной природы, обеспечивающая сохранение их определённой структуры, поддержание режима деятельности, реализацию программы, цели деятельности.

Управление системой - это воздействие на объект, выбранное на основании имеющейся для этого информации из множества возможных воздействий, улучшающее его функционирование или развитие.

Система — совокупность элементов, образующих определенную структуру, которая функционирует для достижения какой-либо цели.

Сложная система - это система, имеющая разветвленную структуру и значительное количество взаимосвязанных и взаимодействующих элементов, выполняющих более сложные функции.

Тезаурус (от греч. сокровище, сокровищница) — это знание, представленное в виде понятий и отношений между ними, т. е. определенным образом структурированное знание.

Алгоритм это набор элементарных операций, или строгая и четкая последовательность действий, выполнение которых (человеком или машиной) приводит к определенному результату.

ТОИС

  1. Основные подходы в определении понятия информации (характеристика информации как устранённой неопределённости, снятой неразличимости, отражённого разнообразия)
  2. Количество информации, ее определение. Единица информации. понятие энтропии в теории информации.
  3. Семантическая концепция информации. Понятие тезауруса. Закономерности восприятия информации реципиентом в рамках тезаурусной модели коммуникации.
  4. Типология, общие свойства информации и закономерности распространения информации, в частности научной
  5. Барьеры в информационном взаимодействии. Общие понятие виды.
  6. Понятие системы. Системные принципы. классификация систем
  7. Понятие и определение нечетких множеств, степени и функции принадлежности в теории нечетких множеств. использование теории нечетких множеств.
  8. Понятие информационной потребности. объективные и субъективные аспекты информационных потребностей. понятие релевантности и пертинентности в теории информационных систем.
  9. Специфика информационных потребностей ученых, специалистов, инженеров менеджеров и способы их изучения.
  10. Информатика и кибернетика как области знаний и деятельности. общие и специфические черты. Основные понятия информатики и кибернетики.

 

ОСНОВНЫЕ ПОДХОДЫ В ОПРЕДЕЛЕНИИ ПОНЯТИЯ ИНФОРМАЦИИ (ХАРАКТЕРИСТИКА ИНФОРМАЦИИ КАК УСТРАНЁННОЙ НЕОПРЕДЕЛЁННОСТИ, СНЯТОЙ НЕРАЗЛИЧИМОСТИ, ОТРАЖЁННОГО РАЗНООБРАЗИЯ)


Поделиться с друзьями:

Биохимия спиртового брожения: Основу технологии получения пива составляет спиртовое брожение, - при котором сахар превращается...

Двойное оплодотворение у цветковых растений: Оплодотворение - это процесс слияния мужской и женской половых клеток с образованием зиготы...

Архитектура электронного правительства: Единая архитектура – это методологический подход при создании системы управления государства, который строится...

Организация стока поверхностных вод: Наибольшее количество влаги на земном шаре испаряется с поверхности морей и океанов (88‰)...



© cyberpedia.su 2017-2024 - Не является автором материалов. Исключительное право сохранено за автором текста.
Если вы не хотите, чтобы данный материал был у нас на сайте, перейдите по ссылке: Нарушение авторских прав. Мы поможем в написании вашей работы!

0.075 с.