Приходится снова возвращаться к проблеме цитируемости — КиберПедия 

Историки об Елизавете Петровне: Елизавета попала между двумя встречными культурными течениями, воспитывалась среди новых европейских веяний и преданий...

Индивидуальные и групповые автопоилки: для животных. Схемы и конструкции...

Приходится снова возвращаться к проблеме цитируемости

2021-01-29 72
Приходится снова возвращаться к проблеме цитируемости 0.00 из 5.00 0 оценок
Заказать работу

30.03.2015

Предисловие

В рубрике «Дайджест» сайта centero.ru помещена статья «Цитирование в науке и подходы к оценке научного вклада» (Вестник АН СССР. 1981. № 5). Нужно короткое объяснение, зачем надо было вытаскивать из пыли этот старый текст. Никто на него и не посмотрел бы, если не смягчить его лирикой. История была такая.

В конце 1950‑х гг. химик Юджин Гарфилд (США) создал Коммерческую фирму «Институт научной информации». Сначала он вынес на рынок очень ценные и дешевые продукты – «Current Contents». Это еженедельные сборники оглавлений ведущих научных журналов, которые только готовились в редакциях к изданию. Всего 8 выпусков – по числу больших областей науки, на которые разделили все журналы. В библиотеку нашего института попали эти книжечки, кто‑то из приятелей вчитался, ахнул и заставил ахнуть других. Они поступали к нам по пятницам, и мы ожидали наготове с пачками перфокарт, на которые тогда фиксировали ссылки и краткое содержание. Прочитываешь заглавия нескольких сотен статей, и то и дело попадает тебе блестящая идея – притом в журнале, в который никогда бы не полез. Часть идей прямо идет в дело, а остальные – для общего развития. Как будто волшебное зеркало дали на пару часов. Быстро росла личная библиотека перфокарт. Надо что‑то найти – проткнешь всю стопку длинной спицей, потрясешь, и нужные падают.

В общем, мы внимательно следили за продуктами Гарфилда. В начале 60‑х гг. он начал создавать «Science Citation Index» (SCI), оттолкнувшись от концепции указателя судебных дел в США – прецедентное право требовало, чтобы все дела были связаны ссылками. Ценность SCI и для ученых, и для аналитиков науки была нам очевидна, в СССР сложилась группа, которая вела методологические разработки. Странно, что эти инструменты очень плохо распространялись в массе ученых. Я в 1989 г. преподавал в университете Сарагосы (Испания), и весь курс провел через библиотеку, где стояли все тома SCI. Никто о них не слышал, а библиотекари не знали, как ими пользоваться. Дело нехитрое – но зачем?

Наша наука в СССР была в то время более восприимчива, и Гарфилд стал довольно часто приезжать, подружился, да и бизнес хорошо шел. Но бизнес оказал и негативный побочный эффект. Наукометрический подход к измерению «продукта» исследований приобрел большую популярность среди администраторов во многих странах. Возник большой рынок. Главным объектом наукометрических измерений стала система научных коммуникаций, прежде всего массивы публикаций и уровень цитируемости авторов. Считалось, что число публикаций отражает количество производимой научной продукции, а цитируемость этих публикаций – качество продукции.

Оба этих тезиса в общем случае неверны, и на основании таких измерений делать вывод о научном работнике нельзя. Научная публикация – это лишь «упаковка» научной продукции, вернее, один из многих видов упаковки. Можно ли сравнивать количество и качество продукта, сравнивая число ящиков?

В СССР тоже возникло влиятельное лобби, которое пыталось навязать «объективные формальные оценки научного труда». Я уже перешел на работу в науковедение, и пришлось ввязаться в эту свару. У меня была поддержка практикующих ученых, я много выступал в крупных институтах – начиная с Дубны и Пущино, Академгородка Новосибирска и до Владивостока. Некоторые простодушные начальники даже предупреждали меня, что если не перестану мешать прогрессу, то я больше никогда за границу не попаду. Вот чем пугали советского человека, клоуны! Кончилось тем, что в 1981 г. напечатали упомянутую статью. В АН СССР эта вредная для науки инициатива была остановлена.

Гарфилд приезжал ко мне в институт, убеждал, что цитируемость – надежный индикатор качества. Я ему изложил свои доводы, и, думаю, он понял, но промолчал. Рыночный интерес – страшная сила.

Потом я был у него в Институте научной информации в Филадельфии, и мы обсуждали более интересные возможности – построение «карт науки» с помощью измерения цитирования и социтирования.

Перестройка и реформы 1990‑х гг. смыли у нашей интеллигенции многие блоки коллективной памяти, а также навыки размышления над мало‑мальски абстрактными проблемами. Околонаучные предприниматели вновь пошли на приступ, и уже без труда захватили лакомый ломоть нашей разделенной культуры. Власть приказала всем, кто хочет подвизаться в науке, скрупулезно подсчитывать число ссылок и неустанно его увеличивать. Скорее всего, министры и чиновники Минобрнауки искренне не знают, почему несется из разрушенных лабораторий глухой стон.

Что делать? Раз власть приказала, нет смысла биться головой об стену. Бесполезно умолять или раздражать правителей логикой и здравым смыслом. Сейчас наш долг – сохранить, что возможно, из смыслов, навыков и стилей нашей науки, чтобы рано или поздно запустить механизм возрождения. Надо подчиниться, но про себя отвергать ложные сущности, иначе они облепят нас, как ракушки. Вероятно, большинство научных сообществ сейчас уверены, что цитируемость дает приемлемую степень истинности оценки. Но ведь и значительная часть уверена, что этот метод дает ложную информацию. Значит, надо вновь обсудить эту проблему – не на митинге, а на методологическом семинаре.

Для этого мы и вытащили эту статью почти из полувековой пыли:

Кара‑Мурза С.Г. Цитирование в науке и подходы к оценке научного вклада // Вестник АН СССР. 1981. № 5.

Проблема оценки продуктивности ученого, его научного вклада – одна из важнейших теоретических и прикладных проблем науковедения. Стремление создать пусть даже «грубоватую», но в принципе работоспособную методику такой оценки психологически вполне понятно. Но конструирование систем оценки – область очень деликатная: любое решение здесь самым непосредственным образом воздействует на социально‑психологические условия работы научных коллективов, затрагивает сферу человеческих отношений и мотивации ученых. И последствия ошибок здесь могут быть весьма серьезными.

Для оценки продуктивности исследователей уже сравнительно давно пытаются использовать различные параметры системы научных коммуникаций. Это вполне объяснимо: через систему коммуникаций поступают в хранилище «отпечатки» научной продукции – публикации. Подсчет этих «отпечатков» на первых порах показался самым простым и естественным подходом к определению научного вклада. Он и сейчас составляет основу большинства формализованных систем оценки научных кадров, хотя и стыдливо, со многими оговорками: трудно найти социолога или администратора, который не постеснялся бы прямо заявить, что число публикаций действительно отражает научный вклад исследователя. Значение качественных аспектов научной деятельности слишком очевидно.

Но вот в середине 60‑х гг. появился информационный инструмент, который, казалось, давал возможность отразить качество научных публикаций. Это – «Указатель библиографических ссылок» (Science Citation Index – SCI), издаваемый Институтом научной информации (США). Почти 20 лет, в течение которых публикуется этот указатель, – солидный срок, позволяющий строить довольно представительные временные ряды, и социологи науки стали все активнее использовать открывающиеся здесь возможности. Создатель SCI Ю. Гарфилд с самого начала указывал на широкую применимость указателя в социологии и истории науки.15

Действительность не обманула этих ожиданий. Более того, нам представляется, что потенциальные возможности SCI в науковедении оценены еще лишь в малой степени, и по мере удлинения временных рядов ценность его будет возрастать. Но можно ли использовать такой измеримый параметр научных коммуникаций, как цитируемость, для оценки вклада в науку отдельных исследователей или целых коллективов?

Исходные посылки тех, кто отвечает на этот вопрос положительно, кажутся вполне обоснованными. Ссылки на предыдущие публикации отражают связи между работами отдельных ученых. Следовательно, чем больше ссылок получают работы ученого, тем в большей степени используется его продукция научным сообществом, тем выше полезность его вклада. Исходя из этих посылок, американские социологи науки Дж. Коул и С. Коул одними из первых применили измерения цитируемости для обоснования весьма радикальных социологических выводов.16 Измерение цитируемости быстро стало связываться со злободневными практическими вопросами. Поборники использования SCI для оценки продуктивности ученых, не дождавшись теоретических обоснований, начали выступать в широкой печати с пропагандой этого подхода. Судя по литературе, в некоторых университетах США показатель цитируемости уже вошел в методики формальной оценки сотрудников. Возможность использования цитирования для оценки научного труда видят и некоторые советские социологи. Так, Н.З. Мирская пишет: «Показатель цитирования – основание для определения эффективности научного труда, что особенно важно в плане практических рекомендаций… Цитирование отражает использование публикации, т. е. ее полезность и, следовательно, эффективность деятельности ее автора».17

Но позволяет ли измерение цитируемости верно оценить научный вклад? Действительно, цитирование отражает связь между работами ученых, говорит об использовании научных результатов. Но оно отражает не все связи. Если труды ученого цитируются широко, то это (в общем случае) указывает на тот факт, что его продукция высоко оценивается и в большой степени используется другими учеными. Но обратное утверждение в общем случае неверно. А для того чтобы цитируемость могла служить основой оценки научного вклада, необходимо чтобы были верны как прямое, так и обратное утверждение, – это кажется очевидным.

Как же получается, что цитирование «высвечивает» лишь часть научных коммуникаций? Рассмотрим механизм цитирования на «микроуровне» – на уровне единичной научной публикации. Чтобы упростить нашу задачу, введем три явно идеализированных предположения: 1) вся использованная в работе автора публикации научная информация изложена в статьях, на которые он может сослаться; 2) все сообщения, несущие необходимую автору для данной работы информацию, достигают этого автора; 3) отбирая статьи, на которые он сошлется в своей публикации, автор руководствуется только релевантностью, ценностью этих статей для своей работы.

Объем информации, которой пользуются при подготовке публикации даже начинающие исследователи, весьма велик. Если бы его удалось весь «упаковать» в научные статьи (наше первое предположение), то их минимальное число достигло бы, вероятно, сотни. Естественно, что процитировать их все невозможно, да и сам институт цитирования потерял бы тогда смысл. В самоорганизующейся системе научных коммуникаций установились определенные нормы цитирования (несколько отличающиеся в разных областях науки). В среднем «нормальная» публикация содержит около 15 ссылок. Это значит, что из, минимум, сотни статей автор отбирает 15 наиболее релевантных для его работы. Другими словами, устанавливается некоторый ценз, порог ценности статьи для данной работы. Этот порог – своеобразный «уровень моря», над которым видна лишь небольшая верхушка айсберга использованной информации – цитированные статьи.

Но если цитируемость связана с пороговыми явлениями, не может быть и речи о линейной зависимости между ценностью статьи и возможностью ее попадания в список цитированных трудов. Все, что ниже порога, получает одинаковую оценку – ноль. Все, что выше порога – единицу. Система работает дискретно, по принципу «все – или ничего». Используя такую двухбалльную шкалу, можно лишь сказать, что цитированные статьи для данной работы более полезны, чем нецитированные. Мы не можем вынести никаких суждений о том, насколько первые полезнее вторых, – изменение происходит скачкообразно. Внутри же обеих групп каждая статья находится в области неопределенности.

На микроуровне ясно, что такая «черно‑белая» шкала мало что дает для распределения использованных 100 статей по их полезности: каждая из 85 нецитированных статей может оказаться по своей полезности почти равной любой из цитированных. Таким образом, нарушается первое требование к шкале оценки, которая должна быть достаточно растянутой и непрерывной.

Что же изменяется при переходе к «макросистеме» – крупному массиву публикаций – и сравнению авторов по числу ссылок на них? Мы получаем ряды чисел разумной величины, по которым, как будто, можно ранжировать авторов. Но это – иллюзия. Оттого, что мы складываем неопределенности, выявленные на уровне одной статьи, определенность не возникает. Обсуждая проблему оценки деятельности ученых, С.Н. Хиншельвуд писал: «Иногда заявляют, что для статистики полезны даже грубые результаты. Не может быть более опасной доктрины, чем доктрина, основывающаяся на представлении, что большое число ложных или бессмысленных догадок может быть каким‑то образом усреднено, давая нечто имеющее смысл».18

Так, если какая‑то работа цитируется во многих статьях, значит, многократно воспроизводится ситуация, которую мы рассмотрели на «микроуровне», – работа чаще других превышает порог полезности. Это говорит о широте «рынка» для данной работы, о массовости ее потребителя. Такие данные, позволяющие оценить масштабы того или иного научного сообщества, очень важны для науковедения. Но можно ли выражать вклад в науку, импульс, даваемый ее развитию какой‑то работой, через массовость потребителя?

Анализ показывает, что наиболее массового потребителя имеют методические статьи. Это понятно: разнообразие идей и объектов науки во много раз превышает разнообразие методов. Поэтому каждая идея имеет небольшой «рынок», а одним и тем же методом пользуются при экспериментальных исследованиях, связанных со множеством идей, – и ссылка на этот метод появляется во многих статьях. Кроме того, в отношении изложения методической стороны исследования нормы в науке гораздо строже, чем в отношении идей и интерпретации результатов (на идею можно и не сослаться, на метод – нельзя).

Это хорошо видно при содержательном анализе приведенных в «Current Contents»19 заголовков наиболее цитируемых статей. По нашим оценкам, из 156 таких статей, относящихся к биохимии, биомедицинским исследованиям и психологии, 118 (т.е. 75,6 %) имеют методический характер. И эти методические статьи получают 84,7 % ссылок! Все 156 статей имеют 210759 ссылок (в среднем 1351 ссылка на одну статью); 118 методических статей имеют 178448 ссылок (1512 на одну статью), 38 неметодических статей – 32311 ссылок (850 на одну статью). В биохимии одна методическая статья имеет в среднем 1996 ссылок, а неметодическая – 949. В этой области методические статьи собрали 92 % ссылок всех 78 статей‑чемпионов.

Этот подсчет сделан нами на основании опубликованных Ю. Гарфилдом материалов, хотя сам он считает ошибочным вывод, что методические статьи обязательно получают больше ссылок, чем прочие работы. Свое мнение он обосновывает тем, что статьи в журналах по аналитической химии не отличаются особенно высоким цитированием.20 На это можно ответить, что высокая цитируемость методических работ – не вывод, а эмпирический факт. Что же касается журналов по аналитической химии, то их статьи предназначены не для потребителя методов, а для их разработчика – химика‑аналитика. Это – не продукт, а «полупродукт», и они, в сущности, не являются методическими статьями. Когда же аналитический метод доводится до «товарного вида» и выносится на широкий «рынок», он публикуется обычно в журналах той области исследований, для которой этот метод предназначен, и цитируется очень обильно.

Однако и в том, что касается создания методов исследования, цитирование не отражает сколько‑нибудь адекватно вклад того или иного ученого (или совокупностей ученых). Создание нового научного метода – это процесс, состоящий из ряда стадий. Все стадии важны, но качественно различны (выдвижение идеи, концепции метода; внесение модификаций, направленных на улучшение, упрощение, расширение применимости, – т.е. придание методу «товарного вида»; пропаганда и широкое распространение метода). История многих нововведений в науке показывает, что вторая и третья стадии вознаграждаются цитированием несопоставимо щедрее, чем первая. Таким образом, еще более усугубляется ориентация механизма цитирования на работы по «расширению рынка», по доводке нововведений. Вот лишь несколько примеров.

В. Кеннет модифицировал известную с 1930 г. реакцию 3. Дише для определения ДНК (предложил нагревать пробу несколько часов при 30°С вместо 3‑10 мин. при 100°С, как делал Дише). Эта статья, опубликованная в 1956 г., получила за 1961‑1975 гг. 5037 ссылок. М. Шомодьи открыл хороший реактив для определения моносахаридов, и его статья получила 970 ссылок. Н. Нельсон путем небольшой модификации улучшил методику, и его статья получила более 3300 ссылок.21 В сущности, и абсолютный рекордсмен цитируемости О. Лоури (50 тыс. ссылок) модифицировал ранее известный реактив, добавив к нему еще одну компоненту и расширив границы применимости метода.

Специального интереса заслуживает история создания и распространения аффинной хроматографии, которая была разработана в двух практически одинаковых вариантах почти одновременно в Швеции и США. Американский автор получил на свои работы почти в 10 раз больше ссылок, чем шведские авторы. Это объясняется тем, что он был не только творцом метода, но и активным агентом по его внедрению в самых разных областях исследований.22

Сказанное ни в коей мере не означает, что мы склонны недооценивать значение методических работ, принижать их роль в развитии науки. Мы только хотим подчеркнуть, что создание и распространение методов – лишь один из элементов научной деятельности, по которому в общем случае нельзя судить о целом, обо всей системе. Здесь уместно повторить тезис, с которого мы начали рассмотрение: высокая цитируемость совокупности статей обычно указывает на их высокую полезность, но низкая цитируемость совокупности статей, отличающейся от первой совокупности каким‑то существенным признаком, не позволяет утверждать, что их ценность низка. Этот тезис мы пытались обосновать, сделав три упрощающих ситуацию предположения. Как же изменится наш вывод, если мы откажемся от них?

Первое предположение: «Вся использованная в работе научная информация изложена в статьях, на которые может сослаться автор публикации».

Это условие не выполняется по разным причинам. Научное знание производится как в фундаментальных, так и в прикладных исследованиях, и роль последних относительно усиливается в результате тенденции к их «фундаментализации». Но в прикладных исследованиях по целому ряду соображений введены ограничения на публикацию результатов. Да и сложившаяся в них система стимулов не ориентирует работника на высокую публикационную активность. Значительная часть «продукции» фундаментальных исследований также не попадает в научную печать. Многие важные виды знания вообще не приспособлены к публикации (например, информация о неудачных исследованиях или ошибках). В другом случае действуют соображения секретности: фундаментальные исследования все в большей степени становятся неотъемлемой частью прикладных программ и НИОКР военного характера.

Если вся эта научная продукция не публикуется (и, следовательно, не «производит» ссылок), то значит ли это, что она не используется и не может рассматриваться как вклад в науку? Вовсе не значит – во всех странах это «непубликуемое» научное знание является важным продуктом науки и используется весьма широко. Существует целый ряд каналов его распространения: отчеты и доклады, суждения экспертов, выступления на совещаниях, консультации и т.п. В подавляющем большинстве случаев на эти сообщения просто невозможно сослаться. Аппарат ссылок отражает лишь небольшой фрагмент всей получаемой и используемой ученым информации. Очевидно, что это резко сокращает возможность использования цитируемости для оценки вклада в науку.

Снятие первого предположения усиливает аргументацию общего вывода, особенно когда речь идет о международных сравнениях. Удельный вес различных каналов в общей системе научной информации в разных странах различен. Например, отсутствие частной собственности на научно‑техническую информацию в СССР позволило предоставить всем заинтересованным организациям доступ к отчетам по законченным исследованиям.

Второе предположение: «Все сообщения, необходимые для работы, достигают автора статьи». Это условие также не выполняется. Целый ряд барьеров препятствуют проникновению к потребителю даже опубликованной информации. Первый из них – языковой. Этот барьер может быть совершенно непроницаемым, когда речь идет о статьях, опубликованных на совсем незнакомом языке (а большинство зарубежных ученых не знают русского языка и языка других народов СССР). Но даже и для людей, более или менее знающих иностранный язык, этот барьер остается весьма существенным. Его значение усиливается тем, что, как правило, иностранные публикации, особенно книги, часто бывают гораздо менее доступны, чем отечественные издания.

Важный фактор, ограничивающий область поиска информации, – предвзятое мнение о научных достоинствах того или иного журнала. Возникающая обратная связь усугубляет ситуацию: статьи этого журнала цитируются меньше, и неблагоприятное мнение о нем укрепляется.

Все эти барьеры, синергически взаимодействуя и усиливая друга друга, образуют вокруг каждого ученого своеобразную «информационную скорлупу».23 У одного внутри этой скорлупы оказываются лишь несколько отечественных журналов по его узкой области знания, другой регулярно просматривает широкий спектр журналов на трех‑четырех языках, третий же пользуется, кроме того, «Current Contents».

Ясно, что ученый может цитировать только те работы, которые оказываются внутри его «информационной скорлупы».

В статьях советских ученых много ссылок на работы американских авторов, а американские ученые мало цитируют советские статьи – что из этого следует? Из этого прежде всего следует, что научная литература США находится внутри «информационной скорлупы» советских ученых, а для исследователей США большая часть информационных ресурсов советской литературы недоступна. Но это известно и без SCI: подавляющее большинство советских ученых в достаточной степени владеют английским языком, чтобы читать специальную литературу, а научный шовинизм совершенно чужд советской интеллигенции.

Устранение второго предположения еще сильнее сужает тот сектор системы научных коммуникаций, который отражается в SCI, и еще больше увеличивает неопределенность оценок, сделанных на основании подсчета ссылок. При международных сравнениях эта неопределенность резко возрастает из‑за асимметричности потоков информации, отражаемых SCI: оценка научной продуктивности стран, публикующих работы на труднодоступных для американских и западноевропейских ученых языках, занижается настолько, что один этот фактор лишает такие оценки всякого смысла. Асимметричность потоков информации «умножается» на асимметричность самого SCI – в нем, например, отражаются лишь 60 советских журналов (1335 журналов США, 529 – Великобритании, 179 – Нидерландов).

Третье предположение: «При цитировании автор руководствуется лишь ценностью статьи для своей работы».

Это допущение – слишком сильная идеализация. Во‑первых, авторы зачастую без необходимости цитируют видных ученых. Ю. Гарфилд пишет: «Цитирование может быть вызвано стремлением автора поднять свою собственную репутацию, связав свою работу с более крупными исследованиями, или стремлением избежать ответственности, ссылаясь на работы других авторов».24 Расширение использования SCI как инструмента для оценки научной продуктивности индивидуальных работников неизбежно приведет к росту ненужного цитирования. Это нанесет ущерб SCI как исключительно ценному средству информационного поиска и науковедческих исследований.

Еще больше искажений вносит уклонение от цитирования релевантных работ, о которых автор знает. Это, конечно, нарушение научной этики, но разве такие нарушения редки? Важнейшим фактором, предупреждающим такие нарушения, является личное знакомство авторов. Но там же, где личные контакты советских ученых с американскими и западноевропейскими коллегами относительно слабы, в отношении советских статей этот фактор не действует. Замалчивание работ наших авторов – обычное явление. Известны случаи, когда советские исследователи по собственной инициативе посылали иностранным коллегам оттиски своих статей, чтобы предотвратить использование их результатов без ссылки на авторство, – и это не помогало. Поскольку цитирование – норма весьма расплывчатая, на поведение автора публикации часто действуют и чисто технические, но существенные на «микроуровне» факторы, – например отсутствие пишущей машинки с подходящим алфавитом.

Конечно, уклонение от цитирования не распространяется на ключевые, основополагающие работы. Но наука сейчас – деятельность миллионов людей, и статистика цитирования определяется не столько ссылками на «статьи‑чемпионы», сколько сложением тех двух‑трех ссылок, которые получают на свои работы большинство исследователей (в 1972 г. каждый отмеченный в SCI автор имел в среднем 6,65 ссылок).

Работы же ученых высшего ранга быстро перестают цитироваться вследствие хорошо известного явления «стирания» их имен. Ю. Гарфилд пишет: «Стирание (obliteration) происходит, когда авторы предполагают, что сделанный ранее научный вклад становится частью общего знания, известного каждому, кто работает в данной области».25 Сам факт такого стирания говорит о том, что вклад ученого велик и используется очень широко (Ю. Гарфилд говорит даже о преимуществах быть «стертым»), но это – еще один источник ошибки при использовании SCI как оценочного механизма.26

Таким образом, устранение третьего предположения также усиливает общий вывод, который мы обосновали, даже приняв весьма сильные допущения.

Нельзя не отметить, что недавно сам Ю. Гарфилд выступил с обзорной статьей под названием «Является ли анализ цитирования разумным инструментом оценки?».27 В этой статье он приводит аргументы противников этого подхода и отстаивает точку зрения, согласно которой измерение цитируемости служит хорошим методом оценки.28 Но те аргументы, против которых возражает Ю. Гарфилд, представляются настолько незначительными, что мы о них до сих пор даже не упоминали. Это – наличие «негативного» цитирования с целью критики работы, наличие «самоцитирования» и цитирования сотрудников. Все это – факторы второго порядка. Главное же – пороговые явления в цитировании и невыполнение тех трех условий, о которых говорилось выше.

В заключение необходимо еще раз подчеркнуть, что наши рассуждения касались лишь одной стороны использования SCI – как инструмента для оценки вклада в науку отдельных исследователей или целых стран. Но это рассмотрение ни в коей мере не ставит под сомнение иные, исключительно богатые возможности использования этого указателя в науковедении. Здесь нет смысла перечислять все эти возможности – они уже отражены в обширной литературе.

В рамках статьи трудно с достаточной полнотой осветить все вопросы использования SCI как инструмента оценки в исследовательской и управленческой практике. Необходимо глубокое методологическое рассмотрение, с четкой формулировкой всех допущений и тезисов. Такое рассмотрение тем более важно и актуально, что проблема выходит за рамки академического спора. Достаточно сказать, что данные о цитируемости ученых разных стран используются государственными органами США (Национальным научным фондом) для характеристики национальных научных потенциалов.29 Известно, что вопрос об оценке научного потенциала целых стран, измерение вклада в науку целых сообществ исследователей в настоящее время представляет не только теоретический интерес – он даже касается не только органов управления наукой. Хотят того социологи науки или нет, этот вопрос приобрел идеологическую и даже политическую окраску. Экономия усилий на анализе этого вопроса оборачивается расширением возможностей для демагогии, яркий пример которой – многочисленные статьи «советологов» о советской науке.

 

 

РЫБА РЫБЕ РОЗНЬ

28.12.2014

В рубрике «Белая книга» недавно выложены данные30 о динамике производства рыболовной отрасли (улове рыбы) в Российской Федерации и о потреблении рыбы и рыбопродуктах населением РФ. Эта небольшая тема служит хорошим поводом, чтобы обратить внимание на один из важных стереотипов нашего массового сознания – оценивать реальность по «потоку», почти не обращая внимания на «базу». Это очень серьезная и почти всеобщая деформация нашего мыслительного аппарата, которая еще во время перестройки оторвала нас от здравого смысла.

Речь идет вот о чем. В экономической науке уже с середины XIX в. четко различались понятия «потока» ресурсов (flux) и «фонда» или «запаса» ресурсов (stock). Годовое производство стали – это прирост запаса, «поток» данного года, а «потребляем» мы весь действующий в хозяйстве металл. Точно так же, как живем мы в домах, построенных за многие десятилетия, а не только за последний год. Можно ли не различать две категории – жилищный фонд в 1990 г. и ввод в действие жилья в 1990 г.?

Для оценки реальности надо обязательно держать в уме обе эти категории – ведь, например, жилищный фонд в целом может ветшать и даже разрушаться, в то время как ввод в действие жилья возрастает. В России «поток» (годовой ввод в действие жилых домов) составляет около 1,5 % от жилищного фонда.

В 2010 г. в отчете Правительства в Госдуме было сказано, что «мы встретили кризис, имея за плечами почти 10 лет экономического роста». Здесь смешиваются понятия. 10 лет происходило оживление омертвленных в 1990‑е гг. производственных мощностей. Средства для этого были получены благодаря не «росту», а конъюнктуре мирового рынка нефти.

Точно так же, в «Стратегии 2020» говорится: «В 2000‑е годы российская экономика демонстрировала впечатляющие успехи. Динамичный экономический рост 2000‑х годов…». Это ошибка. Авторы доклада путают понятие «поток» (например, годовой ВВП) с понятием «основные фонды» (база экономики, производственные мощности, кадровый потенциал).

Эта ошибка с конца 1980‑х гг. стала столь общей, что ряд западных экономистов, а в России – академик Ю.В. Яременко, пытались объяснить, что экономический рост – это рост национального богатства (а не только объем производства продукта). А значит, измерять надо не только потоки, но и динамику запасов, фондов.

Даже экономисты оппозиции приняли этот язык, игнорирующий разницу категорий, и говорили, что надо изъять у олигархов в пользу государства «природную ренту». Но прибыль от месторождений нефти нельзя считать рентой, ибо рента – это регулярный доход от возобновляемого источника. Земельная рента создается трудом земледельца, который своими усилиями соединяет плодородие земли с солнечной энергией. По человеческим меркам, это источник неисчерпаемый. С натяжкой природной рентой можно считать доход от рыболовства – если от жадности не подрывать воспроизводство популяции рыбы. Но доход от добычи нефти – не рента, ибо эта добыча есть изъятие из невозобновляемого запаса.

Английский экономист А. Маршалл в начале XX в. писал, что рента – доход от потока, который истекает из неисчерпаемого источника. А шахта или нефтяная скважина – вход в склад (stock) Природы. Доход от них подобен плате, которую берет страж сокровищницы за то, что впускает туда для изъятия накопленных Природой ценностей. В 90‑е гг. этот страж впустил в сокровищницу России олигархов. И проблема не в том, как поделить доход. Нефть для народного хозяйства – это жизнь для народа России, ибо при замене лошади трактором нефть многократно окупается фиксацией энергии Солнца культурными растениями. Изъятие нефти для мирового рынка – это, после некоторого предела, угасание России.

Мы еще вернемся в проблеме этих категорий. А пока – о рыбе.

Мы понимаем и смотрим на два показателя – величина улова и годовое потребление рыбы. Но ведь это – показатели потока, важные и актуальные, но ничего не говорящие о состоянии базы. А состоянием базы будет определяться поток через весьма короткий срок.

Вспомним. Рыболовство было одной из наиболее динамично развивавшихся отраслей народного хозяйства СССР. Мы далеко не использовали возможность получать ренту от возобновляемых запасов рыбы. По объему добычи рыбы СССР стал одним из основных лидеров мирового рыболовства, деля первое‑второе места с Японией и Перу. На долю Советского Союза приходилось 10 % общемирового вылова водных биологических ресурсов. Благодаря этому, а также политике низких розничных цен на массовые сорта рыбы, ежегодное потребление рыбы и рыбопродуктов составляло в РСФСР в 1980‑е гг. 22 кг на душу (уровень, рекомендованный медицинской наукой).

Базой для этого было – быстрое развитие морского экспедиционного промысла, высокие темпы строительства рыболовного флота, кораблей‑рефрижераторов и плавучих перерабатывающих фабрик, специализированных портов для этого флота, сети специализированных научно‑исследовательских институтов и образовательных учреждений для подготовки кадров.

Возьмем некоторые данные из статистики и из книги31 ученых и администраторов – А.Н. Макоедова (в прошлом заместителя председателя Госкомитета РФ по рыболовству) и О.Н. Кожемяко (губернатора Корякского автономного округа, члена Совета Федерации, который курировал вопросы рыбохозяйственного комплекса РФ, руководителя крупной базы тралового флота в Приморье).

В результате реформы с начала 1990‑х гг. произошла поразительно быстрая дезинтеграция рыбохозяйственного комплекса. Флот был приватизирован, крупные объединения рыбопромышленных предприятий (около 180 в 1990 г.) к 1995‑му распались на 1,2 тыс., а сейчас их около 9 тыс. Одновременно был разрушен так называемый бассейновый принцип в организации отраслевого управления. После 1992 г. быстро снижалась численность работающих, а также снижались объемы вылова и производства продукции.

Резко сократились не только объемы производства продукции, но и производительность труда. В 1990 г. выработка продукции на одного работника отрасли составляла около 500 тыс. руб., а в 2003 г., в сопоставимых ценах, – 230 тыс. руб. Улов на одного занятого в отрасли сократился с 17 до 11 т.

Отрасль стала нерентабельной. Согласно литературным данным, общая стоимость продукции, произведенной рыбопромышленным комплексом страны в 2005 г., составила, по разным оценкам, от 75 до 90 млрд руб. При этом издержки на добычу оказались почти в 2,5‑3 раза выше – около 214 млрд руб. При такой внешней убыточности предприятия могут выжить только за счет теневой экономики, нередко опасной.

Значительная часть улова рыбы, квота которого представляет собой национальное достояние, остается за границей. При этом наши предприниматели «обрушили цены на свою продукцию». В цитированной книге сказано: «Согласно одним статистическим данным, в последнее время на внутреннем потребительском рынке ежегодно реализуют 1,1‑1,3 миллиона тонн рыбопродукции, из которой примерно половина представлена отечественными производителями и половина импортирована. Иными словами, на российский рынок поступает в пересчете на объемы вылова лишь около 700 тысяч тонн, или чуть более 20 % от общей добычи наших рыбаков».

Быстро сокращается материально‑техническая база отрасли. К 2007 г. у 70 % судов рыбопромышленного флота России истекли нормативные сроки эксплуатации, они физически и морально изношены. По расчетам экспертов, к 2010 г. возраст всего отечественного промыслового флота должен был превысить 15 лет, а почти все суда среднего класса – достигнуть предельных нормативных сроков эксплуатации (18 лет). Уже в 2007 г. 20 % судов были полностью амортизированы и подлежали списанию.

Почти во всех морских рыбных портах производственные фонды сильно физически


Поделиться с друзьями:

Типы оградительных сооружений в морском порту: По расположению оградительных сооружений в плане различают волноломы, обе оконечности...

Биохимия спиртового брожения: Основу технологии получения пива составляет спиртовое брожение, - при котором сахар превращается...

Своеобразие русской архитектуры: Основной материал – дерево – быстрота постройки, но недолговечность и необходимость деления...

Поперечные профили набережных и береговой полосы: На городских территориях берегоукрепление проектируют с учетом технических и экономических требований, но особое значение придают эстетическим...



© cyberpedia.su 2017-2024 - Не является автором материалов. Исключительное право сохранено за автором текста.
Если вы не хотите, чтобы данный материал был у нас на сайте, перейдите по ссылке: Нарушение авторских прав. Мы поможем в написании вашей работы!

0.016 с.