Интернет Windows Android

Что такое информация? Информатика и информация. Классификация информации Классификация информации по способу восприятия эстетическая

Информация - это сведения о чем-либо

Понятие и виды информации, передача и обработка, поиск и хранение информации

Развернуть содержание

Свернуть содержание

Информация - это, определение

Информация - это любые сведения, принимаемые и передаваемые, сохраняемые различными источниками. Информация - это вся совокупность сведений об окружающем нас мире, о всевозможных протекающих в нем процессах, которые могут быть восприняты живыми организмами, электронными машинами и другими информационными системами.

- это значимые сведения о чём-либо, когда форма их представления также является информацией, то есть имеет форматирующую функцию в соответствии с собственной природой.

Информация - это все то, чем могут быть дополнены наши знания и предположения.

Информация - это сведения о чём-либо, независимо от формы их представления.

Информация - это психический продукт любого психофизического организма, производимый им при использовании какого-либо средства, называемого средством информации.

Информация - это сведения, воспринимаемые человеком и (или) спец. устройствами как отражение фактов материального или духовного мира в процессе коммуникации.

Информация - это данные, организованные таким образом, что имеют смысл для имеющего с ними дело человека.

Информация - это значение, вкладываемое человеком в данные на основании известных соглашений, используемых для их представления.


Информация - это сведения, разъяснения, изложение.

Информация - это любые данные или сведения, которые кого-либо интересуют.

Информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей - в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.


В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания данное понятие описывается своим специфическим набором признаков. Например, понятие «информация» является базовым в курсе информатики, и невозможно дать его определение через другие, более «простые» понятия (так же, в геометрии, например, невозможно выразить содержание базовых понятий «точка», «прямая», «плоскость» через более простые понятия).


Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путём их сопоставления с содержанием других понятий. В случае с понятием «информация» проблема его определения ещё более сложная, так как оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.


Понятие информации

В современной науке рассматриваются два вида информации:

Объективная (первичная) информация - свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий (фундаментальные взаимодействия) передаются другим объектам и запечатлеваются в их структуре.

Субъективная (семантическая, смысловая, вторичная) информация – смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, образов и ощущений) и зафиксированное на каком-либо материальном носителе.


В бытовом смысле информация - сведения об окружающем мире и протекающих в нём процессах, воспринимаемые человеком или специальным устройством.

В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Согласно концепции К. Шеннона, информация - это снятая неопределенность, т.е. сведения, которые должны снять в той или иной степени существующую у потребителя до их получения неопределенность, расширить его понимание объекта полезными сведениями.


С точки зрения Грегори Бетона элементарная единица информации это "небезразличное различие" или действенное различие для какой-то большей воспринимающей системы. Те различия, которые не воспринимаются, он называет "потенциальными", а воспринимаемые - "действенными". "Информация состоит из небезразличных различий» (с) "Любое восприятие информации с необходимостью является получением сведений о различии». С точки зрения информатики, информация обладает рядом фундаментальных свойств: новизна, актуальность, достоверность, объективность, полнота, ценность и др. Анализом информации занимается, прежде всего, наука логика. Слово «информация» происходит от латинского слова informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами.

До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов. Далее рассматривать вопросы теории информации стала новая на то время наука кибернетика.

Иногда для того, чтобы постичь суть какого-то понятия, полезно подвергнуть анализу значение слова, которым это понятие обозначается. Прояснение внутренней формы слова и изучение истории его употребления может пролить неожиданный свет на его смысл, затмеваемый привычным "технологическим" использованием этого слова и современными коннотациями.

Слово информация вошло в русский язык в Петровскую эпоху. Впервые фиксируется в "Духовном регламенте" 1721 г. в значении "представление, понятие о чем-л.". (В европейских языках оно закрепилось раньше - около XIV в.)

Исходя из этой этимологии, информацией можно считать всякое значимое изменение формы или, другими словами, любые материально зафиксированные следы, образованные взаимодействием предметов или сил и поддающиеся пониманию. Информация, таким образом, это превращенная форма энергии. Носителем информации является знак, а способом ее существования - истолкование: выявление значения знака или последовательности знаков.

Значением может быть реконструируемое по знаку событие, послужившее причиной его возникновения (в случае "природных" и непроизвольных знаков, таких, как следы, улики и проч.), либо сообщение (в случае условных знаков, свойственных сфере языка). Именно вторая разновидность знаков составляет тело человеческой культуры, которая, согласно одному из определений, есть "совокупность не наследственно передающейся информации".

Сообщения могут содержать информацию о фактах или интерпретацию фактов (от лат. interpretatio, истолкование, перевод).

Живое существо получает информацию с помощью органов чувств, а также посредством размышления или интуиции. Обмен информацией между субъектами есть общение или коммуникация (от лат. communicatio, сообщение, передача, производное в свою очередь от лат. communico, делать общим, сообщать, беседовать, соединять).

С практической точки зрения информация всегда представляется в виде сообщения. Информационное сообщение связано с источником сообщения, получателем сообщения и каналом связи.


Возвращаясь к латинской этимологии слова информация, попробуем ответить на вопрос, чему именно придается здесь форма.

Очевидно, что, во-первых, некоторому смыслу, который, будучи изначально бесформенным и невыраженным, существует лишь потенциально и должен быть "построен", чтобы стать воспринимаемым и передаваемым.

Во-вторых, человеческому уму, который воспитывается мыслить структурно и ясно. В-третьих, обществу, которое именно благодаря тому, что его члены разделяют эти смыслы и совместно их используют, обретает единство и функциональность.

Информация как выраженный разумный смысл есть знание, которое может храниться, передаваться и являться основой для порождения другого знания. Формы консервации знания (историческая память) многообразны: от мифов, летописей и пирамид до библиотек, музеев и компьютерных баз данных.

Информация - сведения об окружающем нас мире, о протекающих в нем процессах, которые воспринимают живые организмы, управляющие машины и другие информационные системы.

Слово «информация» латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом «информация» подразумевали: «представление», «понятие», затем-«сведения», «передача сообщений».


В последние годы ученые решили, что обычное (всеми принятое) значение слова «информация» слишком эластично, расплывчато, и дали ему такое значение: «мера определенности в сообщении».

Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона «Математическая теория связи», изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).


Ученые заявили, что они «полностью игнорировали человеческую оценку информации». Последовательному ряду из 100 букв, например, они приписывают определенное значение информации, не обращая внимания, имеет ли эта информация смысл и имеет ли, в свою очередь, смысл практическое применение. Количественный подход - наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв - фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна - имеет в точности одинаковое количество информации.


Такое определение количества информации является в высшей степени полезным и практичным. Оно в точности соответствует задаче инженера связи, который должен передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Канал связи бездушен. Передающей системе важно одно: передать нужное количество информации за определенное время. Как же вычислить количество информации в конкретном сообщении?

Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий. Это и понятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Ведь сообщение об уже известном никакой информации не содержит. Т.е. если вам, допустим, кто-то позвонит по телефону и скажет: «Днем бывает светло, а ночью темно», то такое сообщение вас удивит лишь нелепостью высказывания очевидного и всем известного, а не новостью, которую оно содержит. Иное дело, например, результат забега на скачках. Кто придет первым? Исход здесь трудно предсказать.Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение о его результате, тем больше информации. Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации не случаен. Он связан с наиболее распространенным двоичным способом ее кодирования при передаче и обработке. Попытаемся хотя бы в самом упрощенном виде представить себе тот общий принцип количественной оценки информации, который является краеугольным камнем всей теории информации.


Мы уже знаем, что количество информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят ученые, имеет два равновероятных исхода, это означает, что вероятность каждого исхода равна 1/2. Такова вероятность выпадения «орла» или «решки» при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1/3. Заметьте, сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит. Событие, как вы сами понимаете, может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика - например, 4/5. Вероятность ничьей намного меньше, например 3/20. Вероятность же поражения совсем мала.


Выходит, что количество информации - это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени. Один из героев романа Жюля Верна «Таинственный остров», журналист Гедеон Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться телефонной связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Значит, канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив. А между тем, чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.


Информацию «просеивают» самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже,- более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации. Но на практике довольно часто случается, что код, возникший в результате самого тщательного «просеивания», код удобный и экономный, может исказить сообщение из-за помех, которые всегда, к сожалению, бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи, или, как их называют специалисты, шумы, обрушиваются на информацию. А от этого бывают самые невероятные и, естественно, неприятные неожиданности.


Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы - своеобразную защиту от искажений. Они - эти лишние символы - не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, - избыточность. Как избыточно с таких позиций письмо Татьяны к Онегину! Сколько в нем информационных излишеств для краткого и всем понятного сообщения « Я вас люблю»! И как информационно точны рисованные обозначения, понятные всем и каждому, кто входит сегодня в метро, где вместо слов и фраз объявлений висят лаконичные символьные знаки, указывающие: «Вход», «Выход».


В этой связи полезно вспомнить анекдот, рассказанный в свое время знаменитым американским ученым Бенджаменом Франклином, о шляпочнике, пригласившем своих друзей для обсуждения проекта вывески.Предполагалось нарисовать на вывеске шляпу и написать: «Джон Томпсон, шляпочник, делает и продает шляпы за наличные деньги». Один из друзей заметил, что слова «за наличные деньги» являются излишними - такое напоминание будет оскорбительным для покупателя. Другой нашел также лишним слово «продает», так как само собой понятно, что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, что слова «шляпочник» и «делает шляпы» представляют собой ненужную тавтологию, и последние слова были выкинуты. Четвертый предложил выкинуть и слово «шляпочник» - нарисованная шляпа ясно говорит, кто такой Джон Томпсон. Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться Джоном Томпсоном или иначе, и предложил обойтись без этого указания.Таким образом, в конце концов на вывеске не осталось ничего, кроме шляпы. Конечно, если бы люди пользовались только такого рода кодами, без избыточности в сообщениях, то все «информационные формы» - книги, доклады, статьи - были бы предельно краткими. Но проиграли бы в доходчивости и красоте.

Информацию можно разделить на виды по разным критериям: по истинности: истинная и ложная;

по способу восприятия:

Визуальная - воспринимается органами зрения;

Аудиальная - воспринимается органами слуха;

Тактильная - воспринимается тактильными рецепторами;

Обонятельная - воспринимается обонятельными рецепторами;

Вкусовая - воспринимаемая вкусовыми рецепторами.


по форме представления:

Текстовая - передаваемая в виде символов, предназначенных обозначать лексемы языка;

Числовая - в виде цифр и знаков, обозначающих математические действия;

Графическая - в виде изображений, предметов, графиков;

Звуковая - устная или в виде записи передача лексем языка аудиальным путём.


по назначению:

Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума;

Специальная - содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация;

Секретная - передаваемая узкому кругу лиц и по закрытым (защищённым) каналам;

Личная (приватная) - набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.


по значению:

Актуальная - информация ценная в данный момент времени;

Достоверная - информация, полученная без искажений;

Понятная - информация, выраженная на языке понятном тому, кому она предназначена;

Полная - информация, достаточная для принятия правильного решения или понимания;

Полезная - полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.


Значение информации в различных областях знаний

В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят «живой», развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания. Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки. И теперь, пожалуй, мы вправе говорить об информации как научном понятии, дающем в руки исследователей теоретико - информационный метод, с помощью которого можно проникнуть во многие науки о живой и неживой природе, об обществе, что позволит не только взглянуть на все проблемы с новой стороны, но и увидеть еще неувиденное. Вот почему термин «информация» получил в наше время широкое распространение, став частью таких понятий, как информационная система, информационная культура, даже информационная этика.


Многие научные дисциплины используют теорию информации, чтобы подчеркнуть новое направление в старых науках. Так возникли, например, информационная география, информационная экономика, информационное право. Но чрезвычайно большое значение приобрел термин «информация» в связи с развитием новейшей компьютерной техники, автоматизацией умственного труда, развитием новых средств связи и обработки информации и особенно с возникновением информатики. Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы-своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.


Слово «информация» происходит от латинского слова informatio,что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, однако невозможно дать его определение через другие, более «простые» понятия.Понятие «информация» используется в различных науках, при этом в каждой науке понятие «информация»связано с различными системами понятий. Информация в биологии: Биология изучает живую природу и понятие «информация» связывается с целесообразным поведением живых организмов. В живых организмах информация передается и храниться с помощью объектов различной физической природы (состояние ДНК), которые рассматриваются как знаки биологических алфавитов. Генетическая информация передается по наследству и хранится во всех клетках живых организмов. Филосовский подход: Информация – это взаимодействие, отражение, познание. Кибернетический подход: Информация – это характеристики управляющего сигнала, передаваемого по линии связи.

Роль информации в философии

Традиционализм субъективного постоянно доминировал в ранних определениях информации, как категории, понятия, свойства материального мира. Информация существует вне нашего сознания, и может иметь отражение в нашем восприятии только как результат взаимодействия: отражения, чтения, получения в виде сигнала, стимула. Информация не материальна, как и все свойства материи. Информация стоит в ряду: материя, пространство, время, системность, функция, и др. что есть основополагающие понятия формализованного отражения объективной реальности в её распространении и изменчивости, разнообразии и проявлений. Информация - свойство материи и отражает её свойства (состояние или способность взаимодействия) и количество (мера) путём взаимодействия.


С материальной точки зрения информация - это порядок следования объектов материального мира. Например, порядок следования букв на листе бумаги по определенным правилам является письменной информацией. Порядок следования разноцветных точек на листе бумаги по определенным правилам является графической информацией. Порядок следования музыкальных нот является музыкальной информацией. Порядок следования генов в ДНК является наследственной информацией. Порядок следования битов в ЭВМ является компьютерной информацией и т.д. и т.п. Для осуществления информационного обмена требуется наличие необходимых и достаточных условий.

Необходимые условия:

Наличие не менее двух различных объектов материального или нематериального мира;

Наличие у объектов общего свойства, позволяющего идентифицировать объекты в качестве носителя информации;

Наличие у объектов специфического свойства, позволяющего различать объекты друг от друга;

Наличие свойства пространства, позволяющее определить порядок следования объектов. Например, расположение письменной информации на бумаге - это специфическое свойство бумаги, позволяющее располагать буквы слева направо и сверху вниз.


Достаточное условие одно: наличие субъекта, способного распознавать информацию. Это человек и человеческое общество, общества животных, роботов и т.д. Информационное сообщение строится путем выбора из базиса копий объектов и расположение этих объектов в пространстве в определенном порядке. Длина информационного сообщения определяется как количество копий объектов базиса и всегда выражается целым числом. Необходимо различать длину информационного сообщения, которое всегда измеряется целым числом, и количество знаний, содержащегося в информационном сообщении, которое измеряется в неизвестной единице измерения. С математической точки зрения информация - это последовательность целых чисел, которые записаны в вектор. Числа - это номер объекта в базисе информации. Вектор называется инвариантом информации, так как он не зависит от физической природы объектов базиса. Одно и то же информационное сообщение может быть выражено буквами, словами, предложениями, файлами, картинками, нотами, песнями, видеоклипами, любой комбинацией всех ранее названных.

Роль информации в физике

Информация – это сведения об окружающем мире (объекте, процессе, явлении, событии), которые являются объектом преобразования (включая хранение, передачу и т.д.) и используются для выработки поведения, для принятия решения, для управления или для обучения.


Характерными чертами информации являются следующие:

Это наиболее важный ресурс современного производства: он снижает потребность в земле, труде, капитале, уменьшает расход сырья и энергии. Так, например, обладая умением архивировать свои файлы (т.е. имея такую информацию), можно не тратиться на покупку новых дискет;

Информация вызывает к жизни новые производства. Например, изобретение лазерного луча явилось причиной возникновения и развития производства лазерных (оптических) дисков;

Информация является товаром, причем продавец информации ее не теряет после продажи. Так, если студент сообщит своему товарищу сведения о расписании занятий в течение семестра, он эти данные не потеряет для себя;

Информация придает дополнительную ценность другим ресурсам, в частности, трудовым. Действительно, работник с высшим образованием ценится больше, чем со средним.


Как следует из определения, с информацией всегда связывают три понятия:

Источник информации – тот элемент окружающего мира (объект, процесс, явление, событие), сведения о котором являются объектом преобразования. Так, источником информации, которую в данный момент получает читатель настоящего учебного пособия, является информатика как сфера человеческой деятельности;

Потребитель информации – тот элемент окружающего мира, который использует информацию (для выработки поведения, для принятия решения, для управления или для обучения). Потребитель настоящей информации – сам читатель;

Сигнал – материальный носитель, который фиксирует информацию для переноса ее от источника к потребителю. В данном случае сигнал носит электронный характер. Если же студент возьмет данное пособие в библиотеке, то та же информация будет иметь бумажный носитель. Будучи прочитанной и запомненной студентом, информация приобретет еще один носитель – биологический, когда она “записывается” в память обучаемого.


Сигнал является важнейшим элементом в данной схеме. Формы его представления, а также количественные и качественные характеристики содержащейся в нем информации, важные для потребителя информации, рассматриваются далее в данном разделе учебника. Основные характеристики компьютера как основного инструмента, выполняющего отображение источника информации в сигнал (связь 1 на рисунке) и “доведение” сигнала до потребителя информации (связь 2 на рисунке), приводятся в части Компьютер. Структура процедур, реализующих связи 1 и 2 и составляющих информационный процесс, является предметом рассмотрения в части Информационный процесс.

Объекты материального мира находятся в состоянии непрерывного изменения, которое характеризуется обменом энергией объекта с окружающей средой. Изменение состояния одного объекта, всегда приводит к изменению состояния, некоторого другого объекта окружающей среды. Это явление, вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, может рассматриваться, как передача сигнала от одного объекта, другому. Изменение состояния объекта при передаче ему сигнала, называется регистрацией сигнала.


Сигнал или последовательность сигналов образуют сообщение, которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации. Сообщение (сигнал) разными системами интерпретируется по-своему. Например, последовательно длинный и два коротких звуковых сигнала в терминологии азбуки Морзе - это буква де (или D), в терминологии БИОС от фирмы AWARD - неисправность видеокарты.

Роль информации в математике

В математике теория информации (математическая теория связи) - раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Основные разделы теории информации - кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Математика является больше чем научной дисциплиной. Она создает единый язык всей Науки.


Предметом исследований математики являются абстрактные объекты: число, функция, вектор, множество, и другие. При этом большинство из них вводится аксиоматически (аксиома), т.е. без всякой связи с другими понятиями и без какого-либо определения.

Информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах – собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами – случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире – как свойство материальных объектов. Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки.


"Поиск путей применения теории информации в других областях науки не сводится к тривиальному переносу терминов из одной области науки в другую. Этот поиск осуществляется в длительном процессе выдвижения новых гипотез и их экспериментальной проверке." К. Шеннон.

Роль информации в кибернетике

Основоположник кибернетики Нор берт Винер говорил об информации так:

Информация - это не материя и не энергия, информация - это информация". Но основное определение информации, которое он дал в нескольких своих книгах, следующее: информация - это обозначение содержания, полученное нами из внешнего мира, в процессе приспосабливания к нему нас и наших чувств.

Информация - это основное понятие кибернетики, точно так же экономическая И. - основное понятие экономической кибернетики.


Определений этого термина много, они сложны и противоречивы. Причина, очевидно, в том, что И. как явлением занимаются разные науки, и кибернетика лишь самая молодая из них. И. - предмет изучения таких наук, как наука об управлении, математическая статистика, генетика, теория средств массовой И. (печать, радио, телевидение), информатика, занимающаяся проблемами научно-технической И., и т. д. Наконец, последнее время большой интерес к проблемам И. проявляют философы: они склонны рассматривать И. как одно из основных универсальных свойств материи, связанное с понятием отражения. При всех трактовках понятия И. она предполагает существование двух объектов: источника И. и потребителя (получателя) И. Передача И. от одного к другому происходит с помощью сигналов, которые, вообще говоря, могут не иметь никакой физической связи с ее смыслом: эта связь определяется соглашением. Напр., удар в вечевой колокол означал, что надо собираться на площадь, но тем, кто не знал об этом порядке, он не сообщал никакой И.


В ситуации с вечевым колоколом человек, участвующий в соглашении о смысле сигнала, знает, что в данный момент могут быть две альтернативы: вечевое собрание состоится или не состоится. Или, выражаясь языком теории И., неопределенное событие (вече) имеет два исхода. Принятый сигнал приводит к уменьшению неопределенности: человек теперь знает, что событие (вече) имеет только один исход - оно состоится. Однако, если заранее было известно, что вече состоится в таком-то часу, колокол ничего нового не сообщил. Отсюда вытекает, что чем менее вероятно (т. е. более неожиданно) сообщение, тем больше И. оно содержит, и наоборот, чем больше вероятность исхода до совершения события, тем меньше И. содержит сигнал. Примерно такие рассуждения привели в 40-х гг. XX в. к возникновению статистической, или “классической”, теории И., которая определяет понятие И. через меру уменьшения неопределенности знания о свершении какого-либо события (такая мера была названа энтропией). У истоков этой науки стояли Н. Винер, К. Шеннон и советские ученые А. Н. Колмогоров, В. А. Котельников и др. Им удалось вывести математические закономерности измерения количества И., а отсюда и такие понятия, как пропускная способность канала И., емкость запоминающих И. устройств и т. п., что послужило мощным стимулом к развитию кибернетики как науки и электронно-вычислительной техники как практического применения достижений кибернетики.


Что касается определения ценности, полезности И. для получателя, то здесь еще много нерешенного, неясного. Если исходить из потребностей экономического управления и, следовательно, экономической кибернетики, то И. можно определить как все те сведения, знания, сообщения, которые помогают решить ту или иную задачу управления (т. е. уменьшить неопределенность ее исходов). Тогда открываются и некоторые возможности для оценки И.: она тем полезнее, ценнее, чем скорее или с меньшими затратами приводит к решению задачи. Понятие И. близко понятию данные. Однако между ними есть различие: данные - это сигналы, из которых еще надо извлечь И. Обработка данных есть процесс приведения их к пригодному для этого виду.


Процесс их передачи от источника к потребителю и восприятия в качестве И. может рассматриваться как прохождение трех фильтров:

Физического, или статистического (чисто количественное ограничение по пропускной способности канала, независимо от содержания данных, т. е. с точки зрения синтактики);

Семантического (отбор тех данных, которые могут быть поняты получателем, т. е. соответствуют тезаурусу его знаний);

Прагматического (отбор среди понятых сведений тех, которые полезны для решения данной задачи).

Это хорошо показано на схеме, взятой из книги Е. Г. Ясина об экономической информации. Соответственно выделяются три аспекта изучения проблем И. - синтаксический, семантический и прагматический.


По содержанию И. подразделяется на общественно-политическую, социально-экономическую (в том числе экономическую И.), научно-техническую и т. д. Вообще же классификаций И. много, они строятся по различным основаниям. Как правило, из-за близости понятий точно так же строятся и классификации данных. Напр., И. подразделяется на статическую (постоянную) и динамическую (переменную), и данные при этом - на постоянные и переменные. Другое деление - первичная, производная, выходная И. (так же классифицируются данные). Третье деление - И. управляющая и осведомляющая. Четвертое - избыточная, полезная и ложная. Пятое - полная (сплошная) и выборочная. Эта мысль Винера дает прямое указание на объективность информации, т.е. её существование в природе независимо от сознания (восприятия) человека.

Объективную информацию современная кибернетика определяет как объективное свойство материальных объектов и явлений порождать многообразие состояний, которые посредством фундаментальных взаимодействий материи передаются от одного объекта (процесса) другому, и запечатлеваются в его структуре. Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы.

В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код, или код источника. Таким образом, каждая материальная система является источником информации. Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения.

Роль информации в информатике

Предметом изучения науки являются именно данные: методы их создания, хранения, обработки и передачи. Контент (также: «наполнение» (в контексте), «наполнение сайта») - термин, означающий все виды информации (как текстовой, так и мультимедийной - изображения, аудио, видео), составляющей наполнение (визуализированное, для посетителя, содержимое) веб-сайта. Применяется для отделения понятия информации, составляющей внутреннюю структуру страницы/сайта (код), от той, что будет в итоге выведена на экран.

Слово «информация» происходит от латинского слова informatio,что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, однако невозможно дать его определение через другие, более «простые» понятия.


Можно выделить следующие подходы к определению информации:

Традиционный (обыденный) - используется в информатике: Информация – это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).

Вероятностный - используется в теории об информации: Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.


Информация храниться, передается и обрабатывается в символьной (знаковой) форме. Одна и та же информация может быть представлена в различной форме:

Знаковой письменной, состоящей из различных знаков среди которых выделяют символьную в виде текста, чисел, спец. символов; графическую; табличную и тд.;

Виде жестов или сигналов;

Устной словесной форме (разговор).


Представление информации осуществляется с помощью языков, как знаковых систем, которые строятся на основе определенного алфавита и имеют правила для выполнения операций над знаками. Язык – определенная знаковая система представления информации. Существуют:

Естественные языки – разговорные языки в устной и письменной форме. В некоторых случаях разговорную речь могут заменить язык мимики и жестов, язык специальных знаков (например, дорожных);

Формальные языки – специальные языки для различных областей человеческой деятельности, которые характеризуются жестко зафиксированным алфавитом, более строгими правилами грамматики и синтаксиса. Это язык музыки (ноты), язык математики (цифры, математические знаки), системы счисления, языки программирования и т.д. В основе любого языка лежит алфавит – набор символов/знаков. Полное число символов алфавита принято называть мощностью алфавита.


Носители информации – среда или физическое тело для передачи, хранения и воспроизведения информации. (Это электрические, световые, тепловые, звуковые, радио сигналы, магнитные и лазерные диски, печатные издания, фотографии и тд.)

Информационные процессы - это процессы, связанные с получением, хранением, обработкой и передачей информации (т.е. действия, выполняемые с информацией). Т.е. это процессы, в ходе которых изменяется содержание информации или форма её представления.

Для обеспечения информационного процесса необходим источник информации, канал связи и потребитель информации. Источник передает (отправляет) информацию, а приемник её получает (воспринимает). Передаваемая информация добивается от источника до приемника с помощью сигнала (кода). Изменение сигнала позволяет получить информацию.

Будучи объектом преобразования и использования, информация характеризуется следующими свойствами:

Синтаксис – свойство, определяющее способ представления информации на носителе (в сигнале). Так, данная информация представлена на электронном носителе с помощью определенного шрифта. Здесь же можно рассматривать такие параметры представления информации, как стиль и цвет шрифта, его размеры, междустрочный интервал и т.д. Выделение нужных параметров как синтаксических свойств, очевидно, определяется предполагаемым способом преобразования. Например, для плохо видящего человека существенным является размер и цвет шрифта. Если предполагается вводить данный текст в компьютер через сканер, важен формат бумаги;


Семантика – свойство, определяющее смысл информации как соответствие сигнала реальному миру. Так, семантика сигнала “информатика” заключается в данном ранее определении. Семантика может рассматриваться как некоторое соглашение, известное потребителю информации, о том, что означает каждый сигнал (так называемое правило интерпретации). Например, именно семантику сигналов изучает начинающий автомобилист, штудирующий правила дорожного движения, познавая дорожные знаки (в этом случае сигналами выступают сами знаки). Семантику слов (сигналов) познаёт обучаемый какому-либо иностранному языку. Можно сказать, что смысл обучения информатике заключается в изучении семантики различных сигналов – суть ключевых понятий этой дисциплины;


Прагматика – свойство, определяющее влияние информации на поведение потребителя. Так прагматика информации, получаемой читателем настоящего учебного пособия, заключается, по меньшей мере, в успешной сдаче экзамена по информатике. Хочется верить, что этим прагматика данного труда не ограничится, и он послужит для дальнейшего обучения и профессиональной деятельности читателя.

Следует отметить, что различные по синтаксису сигналы могут иметь одинаковую семантику. Например, сигналы “ЭВМ” и “компьютер” означают электронное устройство для преобразования информации. В этом случае обычно говорят о синонимии сигналов. С другой стороны, один сигнал (т.е., информация с одним синтаксическим свойством) может иметь разную прагматику для потребителей и разную семантику. Так, дорожный знак, известный под названием “кирпич” и имеющий вполне определенную семантику (“въезд запрещен”), означает для автомобилиста запрет на въезд, а на пешехода никак не влияет. В то же время, сигнал “ключ” может иметь разную семантику: скрипичный ключ, родниковый ключ, ключ для открытия замка, ключ, используемый в информатике для кодирования сигнала с целью его защиты от несанкционированного доступа (в этом случае говорят об омонимии сигнала). Есть сигналы - антонимы, имеющие противоположную семантику. Например, "холодный" и "горячий", "быстрый" и "медленный" и т.д.


Предметом изучения науки информатика являются именно данные: методы их создания, хранения, обработки и передачи. А сама информация, зафиксированная в данных, её содержательный смысл интересны пользователям информационных систем, являющимся специалистами различных наук и областей деятельности: медика интересует медицинская информация, геолога - геологическая, предпринимателя - коммерческая и т.п. (в том числе специалиста по информатике интересует информация по вопросам работы с данными).

Семиотика - наука о информации

Информацию нельзя себе представить без ее получения, обработки, передачи и т.д., то есть вне рамок обмена информацией. Все акты информационного обмена осуществляются посредством символов или знаков, с помощью которых одна система воздействует на другую. Поэтому основной нayкой, изучающей информацию, является семиотика - наука о знаках и знаковых системах в природе и обществе (теория знаков). В каждом акте информационного обмена можно обнаружить три его «участника», три элемента: знак, объект, который он обозначает, и получателя (использователя) знака.


В зависимости от того, отношения между какими элементами рассматриваются, семиотику разделяют на три раздела: синтактику, семантику и прагматику. Синтактика изучает знаки и отношения между ними. При этом она абстрагируется от содержания знака и от его практического значения для получателя. Семантика изучает отношения между знаками и обозначаемыми ими объектами, отвлекаясь при этом от получателя знаков и ценности последних: для него. Понятно, что изучение закономерностей смыслового отображения объектов в знаках невозможно без учета и использования общих закономерностей построения любых знаковых систем, изучаемых синтактикой. Прагматика изучает отношения между знаками и их использователями. В рамках прагматики изучаются все факторы, отличающие один акт информационного обмена от другого, все вопросы практических результатов использования информации и ценности ее для получателя.


При этом неизбежно затрагиваются многие аспекты отношений знаков между собой и с объектами, ими обозначаемыми. Таким образом, три раздела семиотики соответствуют трем уровням абстрагирования (отвлечения) от особенностей конкретных актов обмена информацией. Изучение информации во всем ее многообразии соответствует прагматическому уровню. Отвлекаясь от получателя информации, исключая его из рассмотрения, мы переходим к изучению ее на семантическом уровне. С отвлечением от содержания знаков анализ информации переводится на уровень синтактики. Такое взаимопроникновение основных разделов семиотики, связанное с различными уровнями абстрагирования, можно представить с помощью схемы «Три раздела семиотики и их взаимосвязь». Измерение информации осуществляется соответственно так же в трех аспектах: синтактическом, семантическом и прагматическом. Потребность в таком различном измерении информации, как будет показано ниже, диктуется практикой проектирования и организации работы информационных систем. Рассмотрим типичную производственную ситуацию.


В конце смены планировщик участка подготавливает данные о выполнении графика производства. Эта данные поступают в информационно-вычислительный центр (ИВЦ) предприятия, где обрабатываются, и в виде сводок о состоянии производства на текущий момент выдаются руководителям. Начальник цеха на основании полученных данных принимает решение об изменении плана производства на следующий плановый период или принятии каких-либо других организационных мер. Очевидно, что для начальника, цеха количество информации, которое содержала сводка, зависит от величины экономического аффекта, полученного от ее использования при принятии решений, от того, насколько полезны были полученные сведения. Для планировщика участка количество информации в том же сообщении определяется точностью соответствия его фактическому положению дел на участке и степенью неожиданности сообщаемых фактов. Чем они неожиданней, тем быстрее нужно сообщить о них руководству, тем больше информации в данном сообщении. Для работников ИВЦ первостепенное значение будет иметь количество знаков, длина сообщения, несущего информацию, поскольку именно она определяет время загрузки вычислительной техники и каналов связи. При этом ни полезность информации, ни количественная мера смысловой ценности информации их практически не интересует.


Естественно, что организуя систему управления производством, строя модели выбора решения, мы в качестве меры информативности сообщений будем использовать полезность информации. При построении системы учета и отчетности, обеспечивающей руководство данными о ходе производственного процесса за меру количества информации следует принимать новизну полученных сведений. Организация же процедур механической переработки информации требует измерения объема сообщений в виде количества обрабатываемых знаков. Три таких существенно различных подхода к измерению информации не противоречат и не исключают друг друга. Наоборот, измеряя информацию в разных шкалах, они позволяют полнее и всестороннее оценить информативность каждого сообщения и эффективнее организовать систему управления производством. По меткому выражению проф. Н.Е. Кобринского, когда речь идет о рациональной организации потоков информации, количество, новизна, полезность информации оказываются между собой так же связанными, как количество, качество и стоимость продукции в производстве.

Информация в материальном мире

Информация - одно из общих понятий, связанных с материей. Информация существует в любом материальном объекте в виде многообразия его состояний и передается от объекта к объекту в процессе их взаимодействия. Существование информации как объективного свойства материи логически вытекает из известных фундаментальных свойств материи - структурности, непрерывного изменения (движения) и взаимодействия материальных объектов.


Структурность материи проявляется как внутренняя расчленённость целостности, закономерный порядок связи элементов в составе целого. Иными словами, любой материальный объект, от субатомной частицы Мета вселенной (Большой взрыв) в целом, представляет собой систему взаимосвязанных подсистем. Вследствие непрерывного движения, понимаемого в широком смысле как перемещение в пространстве и развитие во времени, материальные объекты изменяют свои состояния. Состояния объектов изменяется и при взаимодействиях с другими объектами. Множество состояний материальной системы и всех её подсистем представляет информацию о системе.


Строго говоря, в силу неопределенности, бесконечности, свойства структурности, количество объективной информации в любом материальном объекте бесконечно. Эта информация называется полной. Однако можно выделять структурные уровни с конечными множествами состояний. Информация, существующая на структурном уровне с конечным числом состояний, называется частной. Для частной информации смысл понятие количества информации.

Из приведенного представления логично и просто вытекает выбор единицы измерения количества информации. Представим себе систему, которая может находиться всего в двух равновероятных состояниях. Присвоим одному из них код «1», а другому - «0». Это минимальное количество информации, которое может содержать система. Оно и является единицей измерения информации и называется бит. Существуют и другие, более сложно определяемые, способы и единицы измерения количества информации.


В зависимости от материальной формы носителя, информация бывает двух основных видов - аналоговая и дискретная. Аналоговая информация изменяется во времени непрерывно и принимает значения из континуума значений. Дискретная информация изменяется в некоторые моменты времени и принимает значения из некоторого множества значений. Любой материальный объект или процесс является первичным источником информации. Все возможные его состояния составляют код источника информации. Мгновенное значение состояний представляется как символ («буква») этого кода. Для того чтобы информация могла передаваться от одного объекта другому как к приемнику, необходимо, чтобы был какой-то промежуточный материальный носитель, взаимодействующий с источником. Такими переносчиками в природе, как правило, являются быстро распространяющиеся процессы волновой структуры - космические, гамма и рентгеновские излучения, электромагнитные и звуковые волны, потенциалы (а может быть и ещё не открытые волны) гравитационного поля. При взаимодействии электромагнитного излучения с объектом в результате поглощения или отражения изменяется его спектр, т.е. изменяются интенсивности некоторых длин волн. Изменяются при взаимодействиях с объектами и гармоники звуковых колебаний. Информация передаётся и при механическом взаимодействии, однако механическое взаимодействие, как правило, приводит к большим изменениям структуры объектов (вплоть до их разрушения), и информация сильно искажается. Искажение информации при её передаче называется дезинформация.


Перенос информации источника на структуру носителя называется кодированием. При этом происходит преобразование кода источника в код носителя. Носитель с перенесенным на него кодом источника в виде кода носителя называется сигналом. Приемник сигнала имеет свой набор возможных состояний, который называется кодом приемника. Сигнал, взаимодействуя с объектом-приемником, изменяет его состояния. Процесс преобразования кода сигнала в код приёмника называется декодированием.Передачу информации от источника приемнику можно рассматривать как информационное взаимодействие. Информационное взаимодействие кардинально отличается от других взаимодействий. При всех других взаимодействиях материальных объектов происходит обмен веществом и (или) энергией. При этом один из объектов теряет вещество или энергию, а другой получает их. Это свойство взаимодействий называется симметричностью. При информационном взаимодействии приемник получает информацию, а источник не теряет её. Информационное взаимодействие несимметрично.Объективная информация сама по себе не материальна, она является свойством материи, как, например, структурность, движение, и существует на материальных носителях в виде своих кодов.

Информация в живой природе

Живая природа сложна и разнообразна. Источниками и приемниками информации в ней являются живые организмы и их клетки. Организм обладает рядом свойств, отличающих его от неживых материальных объектов.


Основные:

Непрерывный обмен веществом, энергией и информацией с окружающей средой;

Раздражимость, способность организма воспринимать и перерабатывать информацию об изменениях окружающей среды и внутренней среды организма;

Возбудимость, способность реагировать на действие раздражителей;

Самоорганизация, проявляемая как изменения организма для адаптации к условиям внешней среды.


Организм, рассматриваемый как система, имеет иерархическую структуру. Эта структура относительно самого организма подразделяется на внутренние уровни: молекулярный, клеточный, уровень органов и, наконец, собственно организм. Однако организм взаимодействует и над организменными живыми системами, уровнями которых являются популяция, экосистема и вся живая природа в целом (биосфера). Между всеми этими уровнями циркулируют потоки не только вещества и энергии, но и информации.Информационные взаимодействия в живой природе происходят так же, как и в неживой. Вместе с тем, живая природа в процессе эволюции создала широкое разнообразие источников, носителей и приёмников информации.


Реакция на воздействия внешнего мира проявляется у всех организмов, поскольку она обусловлена раздражимостью. У высших организмов адаптация к внешней среде носит характер сложной деятельности, которая эффективна лишь при достаточно полной и своевременной информации об окружающей среде. Приёмниками информации из внешней среды у них являются органы чувств, к которым относят зрение, слух, обоняние, вкус, осязание и вестибулярный аппарат. Во внутренней структуре организмов имеются многочисленные внутренние рецепторы, связанные с нервной системой. Нервная система состоит из нейронов, отростки которых (аксоны и дендриты) представляют собой аналог каналов передачи информации. Главными органами, обеспечивающими хранение и обработку информации у позвоночных, являются спинной мозг и головной мозг. В соответствии с особенностями органов чувств информацию, воспринимаемую организмом, можно классифицировать как визуальную, слуховую, вкусовую, обонятельную и тактильную.


Попадая на сетчатку человеческого глаза, сигнал особым образом возбуждает составляющие её клетки. Нервные импульсы клеток через аксоны передаются в мозг. Мозг запоминает это ощущение в виде определенной комбинации состояний составляющих его нейронов. (Продолжение примера - в секции "Информация в человеческом обществе"). Накапливая информацию, мозг создает на своей структуре связанную информационную модель окружающего мира. В живой природе для организма - приёмника информации важной характеристикой является её доступность. Количество информации, которое нервная система человека способна подать в мозг при чтении текстов, составляет примерно 1 бит за 1/16 с.

Исследование организмов затруднено их сложностью. Допустимая для неживых объектов абстракция структуры как математического множества вряд ли допустима для живого организма, потому что для создания более или менее адекватной абстрактной модели организма необходимо учесть все иерархические уровни его структуры. Поэтому сложно ввести меру количества информации. Очень сложно определяются связи между компонентами структуры. Если известно, какой орган является источником информации, то что является сигналом и что приемником?


До появления вычислительных машин биология, занимающаяся исследованиями живых организмов, применяла только качественные, т.е. описательные модели. В качественной модели учесть информационные связи между компонентами структуры практически невозможно. Электронно-вычислительная техника позволила применить в биологических исследованиях новые методы, в частности, метод машинного моделирования, предполагающий математическое описание известных явлений и процессов, происходящих в организме, добавление к ним гипотез о некоторых неизвестных процессах и расчет возможных вариантов поведения организма. Полученные варианты сравниваются с реальным поведением организма, что позволяет определить истинность или ложность выдвинутых гипотез. В таких моделях можно учесть и информационное взаимодействие. Чрезвычайно сложными являются информационные процессы, обеспечивающие существование самой жизни. И хотя интуитивно понятно, что это свойство прямо связано с формированием, хранением и передачей полной информации о структуре организма, абстрактное описание этого феномена представлялось до некоторых пор невозможным. Тем не менее, информационные процессы, обеспечивающие существование этого свойства, частично раскрыты благодаря расшифровке генетического кода и прочтению геномов различных организмов.

Информация в человеческом обществе

Развитие материи в процессе движения направлено в сторону усложнения структуры материальных объектов. Одна из самых сложных структур – человеческий мозг. Пока это единственная известная нам структура, обладающая свойством, которое сам человек называет сознанием. Говоря об информации мы, как мыслящие существа, априорно подразумеваем, что информация, кроме её наличия в виде принимаемых нами сигналов, имеет ещё и какой-то смысл. Формируя в своем сознании модель окружающего мира как взаимосвязанную совокупность моделей его объектов и процессов, человек использует именно смысловые понятия, а не информацию. Смысл - сущность любого феномена, которая не совпадает с ним самим и связывает его с более широким контекстом реальности. Само слово прямо указывает, что смысловое содержание информации могут формировать только мыслящие приемники информации. В человеческом обществе решающее значение приобретает не сама информация, а её смысловое содержание.


Пример (продолжение). Испытав такое ощущение, человек присваивает объекту понятие – «помидор», а его состоянию понятие - «красный цвет». Кроме того, его сознание фиксирует связь: «помидор» – « красного цвета». Это и есть смысл принятого сигнала. (Продолжение примера: ниже в этой секции). Способность мозга создавать смысловые понятия и связи между ними является основой сознания. Сознание можно рассматривать как саморазвивающуюся смысловую модель окружающего мира.Смысл это не информация. Информация существует только на материальном носителе. Сознание человека считается нематериальным. Смысл существует в сознании человека в виде слов, образов и ощущений. Человек может произносить слова не только вслух, но и «про себя». Он также «про себя» может создавать (или вспоминать) образы и ощущения. Однако, он может восстановить информацию, соответствующую этому смыслу, произнеся слова или написав их.

Пример (продолжение). Если слова «помидор» и «красный цвет» - смысл понятий, то где же тогда информация? Информация содержится в мозге в виде определенных состояний его нейронов. Она содержится также в напечатанном тексте, состоящем из этих слов, и при кодировании букв трехразрядным двоичным кодом её количество равно 120 бит. Если произнести слова вслух, информации будет значительно больше, но смысл останется тем же. Наибольшее количество информации несёт зрительный образ. Это отражается даже в народном фольклоре - "лучше один раз увидеть, чем сто раз услышать".Восстановленная таким образом информация называется семантической информацией, поскольку она кодирует смысл некоторой первичной информации (семантика). Услышав (или увидев) фразу, произнесенную (или написанную) на языке, которого человек не знает, он получает информацию, но не может определить её смысл. Поэтому для передачи смыслового содержания информации необходимы некоторые соглашения между источником и приемником о смысловом содержании сигналов, т.е. слов. Такие соглашения могут быть достигнуты в процессе общения. Общение является одним из важнейших условий существования человеческого общества.

В современном мире информация представляет собой один из важнейших ресурсов и, в то же время, одну из движущих сил развития человеческого общества. Информационные процессы, происходящие в материальном мире, живой природе и человеческом обществе изучаются (или, по крайней мере, учитываются) всеми научными дисциплинами от философии до маркетинга. Возрастающая сложность задач научных исследований привела к необходимости привлечения к их решению больших коллективов ученых разных специальностей. Поэтому практически все рассматриваемые ниже теории являются междисциплинарными. Исторически сложилось так, что исследованием непосредственно информации занимаются две комплексных отрасли науки - кибернетика и информатика.


Современная кибернетика - это мульти дисциплинарная отрасль науки, исследующая сверхсложные системы, такие как:

Человеческое общество (социальная кибернетика);

Экономика (экономическая кибернетика);

Живой организм (биологическая кибернетика);

Человеческий мозг и его функция - сознание (искусственный интеллект).


Информатика, сформировавшаяся как наука в середине прошлого века, отделилась от кибернетики и занимается исследованиями в области способов получения, хранения, передачи и обработки семантической информации. Обе эти отрасли используют несколько основополагающих научных теорий. К ним относятся теория информации, и её разделы - теория кодирования, теория алгоритмов и теория автоматов. Исследования смыслового содержания информации основываются на комплексе научных теорий под общим названием семиотика.Теория информации - комплексная, в основном математическая теория, включающая в себя описание и оценки методов извлечения, передачи, хранения и классификации информации. Рассматривает носители информации как элементы абстрактного (математического) множества, а взаимодействия между носителями как способ расположения элементов в этом множестве. Такой подход дает возможность формально описать код информации, то есть определить абстрактный код и исследовать его математическими методами. Для этих исследований применяет методы теории вероятностей, математической статистики, линейной алгебры, теории игр и других математических теорий.


Основы этой теории заложил американский учёный Э. Хартли в 1928 г., который определил меру количества информации для некоторых задач связи. Позднее теория была существенно развита американским учёным К. Шенноном, российскими учёными А.Н. Колмогоровым, В.М Глушковым и др.Современная теория информации включает в себя как разделы теорию кодирования, теорию алгоритмов, теорию цифровых автоматов (см. ниже) и некоторые другие.Существуют и альтернативные теории информации, например "Качественная теория информации", предложенная польским учёным М. Мазуром.C понятием алгоритма знаком любой человек, даже не подозревая об этом. Вот пример неформального алгоритма:«Помидоры нарезать кружочками или дольками. Положить в них нашинкованный лук, полить растительным маслом, затем посыпать мелко нарезанным стручковым перцем, перемешать. Перед употреблением посыпать солью, уложить в салатник и украсить зеленью петрушки». (Салат из помидоров).


Первые в истории человечества правила решения арифметических задач были разработаны одним из известных учёных древности Аль - Хорезми в IX веке нашей эры. В его честь формализованные правила для достижения какой-либо цели называют алгоритмами.Предметом теории алгоритмов является нахождение методов построения и оценки эффективных (в том числе и универсальных) вычислительных и управляющих алгоритмов для обработки информации. Для обоснования таких методов теория алгоритмов использует математический аппарат теории информации.Современное научное понятие алгоритмов как способов обработки информации введено в работах Э. Поста и А. Тьюринга в 20-х годах ХХ века (Машина Тьюринга). Большой вклад в развитие теории алгоритмов внесли русские ученые А. Марков (Нормальный алгоритм Маркова) и А. Колмогоров.Теория автоматов - раздел теоретической кибернетики, в котором исследуются математические модели реально существующих или принципиально возможных устройств перерабатывающих дискретную информацию в дискретные моменты времени.


Понятие автомата возникло в теории алгоритмов. Если существуют некоторые универсальные алгоритмы решения вычислительных задач, то должны существовать и устройства (пусть и абстрактные) для реализации таких алгоритмов. Собственно, абстрактная машина Тьюринга, рассматриваемая в теории алгоритмов, является в то же время и неформально определённым автоматом. Теоретическое обоснование построения таких устройств является предметом теории автоматов.Теория автоматов использует аппарат математических теорий – алгебры, математической логики, комбинаторного анализа, теории графов, теории вероятностей и др.Теория автоматов вместе с теорией алгоритмов являются основной теоретической базой для создания электронных вычислительных машин и автоматизированных управляющих систем.Семиотика - комплекс научных теорий, изучающих свойства знаковых систем. Наиболее существенные результаты достигнуты в разделе семиотики - семантике. Предметом исследований семантики является смысловое содержание информации.


Знаковой системой считается система конкретных или абстрактных объектов (знаков, слов), с каждым из которых определенным образом сопоставлено некоторое значение. В теории доказано, что таких сопоставлений может быть два. Первый вид соответствия определяет непосредственно материальный объект, который обозначает это слово и называется денотат (или, в некоторых работах, – номинант). Второй вид соответствия определяет смысл знака (слова) и называется концепт. При этом исследуются такие свойства сопоставлений как «смысл», «истинность», «определимость», «следование», «интерпретация» и др. Для исследований используется аппарат математической логики и математической лингвистики.Идеи семантики, намеченные ещё Г. В. Лейбницем и Ф де Соссюром в XIX веке, сформулировали и развили Ч. Пирс (1839-1914), Ч. Моррис (р. 1901), Р. Карнап (1891-1970) и др.Основным достижением теории является создание аппарата семантического анализа, позволяющего представить смысл текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке.Семантический анализ является основой для создания устройств (программ) машинного перевода с одного естественного языка на другой.

Хранение информации осуществляется с помощью её переноса на некоторые материальные носители. Семантическая информация, зафиксированная на материальном носителе для хранения, называется документом. Хранить информацию человечество научилось очень давно. В наиболее древних формах хранения информации использовалось расположение предметов - раковин и камней на песке, узелков на верёвке. Существенным развитием этих способов явилась письменность - графическое изображение символов на камне, глине, папирусе, бумаге. Огромное значение в развитии этого направления имело изобретение книгопечатания. За свою историю человечество накопило огромный объём информации в библиотеках, архивах, периодических изданиях и других письменных документах.


В настоящее время особое значение получило хранение информации в виде последовательностей двоичных символов. Для реализации этих методов используются разнообразные запоминающие устройства. Они являются центральным звеном систем хранения информации. Кроме них в таких системах используются средства поиска информации (поисковая система), средства получения справок (информационно-справочные системы) и средства отображения информации (устройство вывода). Сформированные по назначению информации такие информационные системы образуют базы данных, банки данных и база знаний.

Передачей семантической информации называется процесс её пространственного переноса от источника к получателю (адресату). Передавать и получать информацию человек научился даже раньше, чем хранить её. Речь является способом передачи, который использовали наши далекие предки в непосредственном контакте (разговоре) - ею мы пользуемся и сейчас. Для передачи информации на большие расстояния необходимо использовать значительно более сложные информационные процессы.Для осуществления такого процесса информация должна быть некоторым образом оформлена (представлена). Для представления информации используются различные знаковые системы - наборы заранее оговоренных смысловых символов: предметов, картинок, написанных или напечатанных слов естественного языка. Представленная с их помощью семантическая информация о каком-либо объекте, явлении или процессе называется сообщением.


Очевидно, что для передачи сообщения на расстояние информация должна быть перенесена на какой-либо мобильный носитель. Носители могут перемещаться в пространстве с помощью транспортных средств, как это происходит с письмами, посылаемыми по почте. Такой способ обеспечивает полную достоверность передачи информации, поскольку адресат получает оригинал сообщения, однако требует значительного времени для передачи. С середины XIX века получили распространение способы передачи информации, использующие естественно распространяющийся носитель информации - электромагнитные колебания (электрические колебания, радиоволны, свет). Реализация этих способов требует:

Предварительного переноса информации, содержащейся в сообщении, на носитель - кодирования;

Обеспечения передачи полученного таким образом сигнала адресату по специальному каналу связи;

Обратного преобразования кода сигнала в код сообщения - декодирования.

Использование электромагнитных носителей делает доставку сообщения адресату почти мгновенной, однако требует дополнительных мер по обеспечению качества (достоверности и точности) передаваемой информации, поскольку реальные каналы связи подвержены воздействию естественных и искусственных помех. Устройства, реализующие процесс передачи данных, образуют системы связи. В зависимости от способа представления информации системы связи можно подразделять на знаковые (телеграф, телефакс), звуковые (телефон), видео и комбинированные системы (телевидение). Наиболее развитой системой связи в наше время является Интернет.

Обработка информации

Поскольку информация не материальна, её обработка заключается в различных преобразованиях. К процессам обработки можно отнести любые переносы информации с носителя на другой носитель. Информация, предназначенная для обработки, называется данными. Основным видом обработки первичной информации, полученной различными приборами, является преобразование в форму, обеспечивающую её восприятие органами чувств человека. Так, фотоснимки космоса, полученные в рентгеновских лучах, преобразуются в обычные цветные фотографии с использованием специальных преобразователей спектра и фотоматериалов. Приборы ночного видения преобразуют изображение, получаемое в инфракрасных (тепловых) лучах, в изображение в видимом диапазоне. Для некоторых задач связи и управления, необходимо преобразование аналоговой информации. Для этого используются аналого-цифровые и цифро-аналоговые преобразователи сигналов.


Важнейшим видом обработки семантической информации является определение смысла (содержания), заключающегося в некотором сообщении. В отличие от первичной семантическая информация не имеет статистических характеристик, то есть количественной меры - смысл либо есть, либо его нет. А сколько его, если он есть - установить невозможно. Содержащийся в сообщении смысл описывается на искусственном языке, отражающем смысловые связи между словами исходного текста. Словарь такого языка, называемый тезаурусом, находится в приемнике сообщения. Смысл слов и словосочетаний сообщения определяется путем их отнесения к определенным группам слов или словосочетаний, смысл которых уже установлен. Тезаурус, таким образом, позволяет установить смысл сообщения и, одновременно, пополняется новыми смысловыми понятиями. Описанный вид обработки информации применяется в информационно-поисковых системах и системах машинного перевода.


Одним из широко распространенных видов обработки информации является решение вычислительных задач и задач автоматического управления с помощью вычислительных машин. Обработка информации всегда производится с некоторой целью. Для её достижения должен быть известен порядок действий над информацией, приводящий к заданной цели. Такой порядок действий называется алгоритмом. Кроме самого алгоритма необходимо также некоторое устройство, реализующее этот алгоритм. В научных теориях такое устройство называется автоматом.Следует отметить как важнейшую особенность информации тот факт, что в силу несимметричности информационного взаимодействия при обработке информации возникает новая информация, а исходная информация не теряется.

Аналоговая и цифровая информация

Звук это волновые колебания в какой-либо среде, например в воздухе. Когда человек говорит, колебание связок горла преобразуются в волновые колебания воздуха. Если рассматривать звук не как волну, а как колебания в одной точке, то эти колебания можно представить, как изменяющееся во времени давление воздуха. С помощью микрофона можно уловить изменения давления и преобразовать их в электрическое напряжение. Произошло преобразование давления воздуха в колебания электрического напряжения.


Такое преобразование может происходить по различным законам, чаще всего преобразование происходит по линейному закону. Например, по такому:

U(t)=K(P(t)-P_0),

где U(t) – электрическое напряжение, P(t) – давление воздуха, P_0 – среднее давление воздуха, а K – коэффициент преобразования.

И электрическое напряжение, и давление воздуха являются непрерывными функциями во времени. Функции U(t) и P(t) являются информацией о колебаниях связок горла. Эти функции непрерывны и такая информация называется аналоговой.Музыка это частный случай звука и её тоже можно представить в виде какой-нибудь функции от времени. Это будет аналоговое представление музыки. Но музыку так же записывают в виде нот. Каждая нота имеет длительность кратную заранее заданной длительности, и высоту (до, ре, ми, фа, соль и т.д). Если эти данные преобразовать в цифры, то мы получим цифровое представление музыки.


Человеческая речь, так же является частным случаем звука. Её тоже можно представить в аналоговом виде. Но так же как музыку можно разбить на ноты, речь можно разбить на буквы. Если каждой букве дать свой набор цифр, то мы получим цифровое представление речи.Разница между аналоговой информацией и цифровой в том, что аналоговая информация непрерывна, а цифровая дискретна.Преобразование информации из одного вида в другой в зависимости от рода преобразования называют по-разному: просто «преобразование», например, цифро-аналоговое преобразование, или аналого-цифровое преобразование; сложные преобразования называют «кодированием», например, дельта-кодирование, энтропийное кодирование; преобразование между такими характеристиками, как амплитуда, частота или фаза называют «модуляцией», например амплитудно-частотная модуляция, широтно-импульсная модуляция.

Обычно, аналоговые преобразования достаточно просты и с ними легко справляются различные устройства изобретенные человеком. Магнитофон преобразует намагниченность на пленке в звук, диктофон преобразует звук в намагниченность на пленке, видеокамера преобразует свет в намагниченность на пленке, осцилограф преобразует электрическое напряжение или ток в изображение и т.д. Преобразование аналоговой информации в цифровую заметно сложнее. Некоторые преобразования машине совершить не удается или удается с большим трудом. Например, преобразование речи в текст, или преобразование записи концерта в ноты, и даже по природе своей цифровое представление: текст на бумаге очень тяжело машине преобразовать в тот же текст в памяти компьютера.

Зачем же тогда использовать цифровое представление информации, если оно так сложно? Основное приимущество цифровой информации перед аналоговой это помехозащищенность. То есть в процессе копирования информации цифровая информация копируется так как есть, её можно копировать практически бесконечное количество раз, аналоговая же информация в процессе копирования зашумляется, её качество ухудшается. Обычно аналоговую информацию можно копировать не более трех раз.Если у Вас есть двух-кассетный аудио-магнитофон, то можете произвести такой эксперимент, попробуйте переписать несколько раз с кассеты на кассету одну и ту же песню, уже через несколько таких перезаписей Вы заметите как сильно ухудшилось качество записи. Информация на кассете хранится в аналоговом виде. Музыку в формате mp3 Вы можете переписывать сколько угодно раз, и качество музыки от этого не ухудшается. Информация в файле mp3 хранится в цифровом виде.

Количество информации

Человек или какой нибудь другой приемник информации, получив порцию информации, разрешает некоторую неопределенность. Возьмем для примера все тоже дерево. Когда мы увидели дерево, то мы разрешили ряд неопределенностей. Мы узнали высоту дерева, вид дерева, плотность листвы, цвет листьев и, если это плодовое дерево, то мы увидели на нём плоды, насколько они созрели и т.п. До того как мы посмотрели на дерево, мы всего этого не знали, после того как мы посмотрели на дерево, мы разрешили неопределенность – получили информацию.


Если мы выйдем на луг и посмотрим на него, то мы получим информацию другого рода, насколько луг большой, как высока трава и какого цвета трава. Если на этот же самый луг выйдет биолог, то он помимо всего прочего сможет узнать: какие сорта трав растут на лугу, какого типа этот луг, он увидит какие цветы зацвели, какие только зацветут, пригоден ли луг для выпаса коров и т.п. То есть, он получит количество информации больше чем мы, так как у него, перед тем как он посмотрел на луг, было больше вопросов, биолог разрешит большее количество неопределенностей.

Чем большая неопределенность была разрешена в процессе получения информации, тем большее количество информации мы получили. Но это субъективная мера количества информации, а нам бы хотелось иметь объективную меру. Существует формула для расчета количества информации. Мы имеем некоторую неопределенность, и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно расчитать по следующей формуле, которую предложил нам Шеннон:

I = -(p_1 \log_{2}p_1 + p_2 \log_{2}p_2 + ... +p_N \log_{2}p_N), где

I – количество информации;

N – количество исходов;

p_1, p_2, ..., p_N- вероятности исхода.

Количество информации измеряется в битах – сокращение от английских слов BInary digiT, что означает двоичная цифра.

Для равновероятных событий формулу можно упростить:

I = \log_{2}N, где

I – количество информации;

N – количество исходов.

Возьмем, для примера, монету и бросим её на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили \log_{2}2=1 бит информации.

Попробуем узнать сколько информации мы получим после того, как бросим кубик. У кубика шесть граней – шесть равновероятных событий. Получаем: \log_{2}6 \approx 2,6. После того, как мы бросили кубик на стол, мы получили приблизительно 2,6 бита информации.


Вероятность того, что мы увидим марсианского динозавра, когда выйдем из дома, равна одной десяти-миллиардной. Сколько информации мы получим о марсианском динозавре после того как выйдем из дома?

-\left({{1 \over {10^{10}}} \log_2{1 \over {10^{10}}} + \left({ 1 - {1 \over {10^{10}}}} \right) \log_2 \left({ 1 - {1 \over {10^{10}}} }\right)} \right) \approx 3,4 \cdot 10^{-9} бита.

Предположим, что мы бросили 8 монет. У нас 2^8 вариантов падения монет. Значит после броска монет мы получим \log_2{2^8}=8 бит информации.

Когда мы задаем вопрос и можем в равной вероятности получить ответ «да» или «нет», то после ответа на вопрос мы получаем один бит информации.


Удивительно, что если применить формулу Шеннона для аналоговой информации, то мы получим бесконечное количество информации. Например, напряжение в точке электрической цепи может принимать равновероятное значение от нуля до одного вольта. Количество исходов у нас равно бесконечности и, подставив это значение в формулу для равновероятных событий, мы получим бесконечность – бесконечное количество информации.

Сейчас я покажу, как закодировать «Войну и мир» с помощью всего лишь одной риски на любом металлическом стержне. Закодируем все буквы и знаки, встречающиеся в «Войне и мир», с помощью двухзначных цифр - их должно нам хватить. Например, букве «А» дадим код «00», букве «Б» - код «01» и так далее, закодируем знаки препинания, латинские буквы и цифры. Перекодируем «Войну и мир» с помощью этого кода и получим длинное число, например, такое 70123856383901874..., пририсуем перед этим числом запятую и ноль (0,70123856383901874...). Получилось число от нуля до единицы. Поставим риску на металлическом стержне так, чтобы отношение левой части стержня к длине этого стержня равнялось как раз нашему числу. Таким образом, если вдруг нам захочется почитать «Войну и мир», мы просто измерим левую часть стержня до риски и длину всего стержня, поделим одно число на другое, получим число и перекодируем его назад в буквы («00» в «А», «01» в «Б» и т.д.).

Реально такое проделать нам не удастся, так как мы не сможем определять длины с бесконечной точностью. Увеличивать точность измерения нам мешают некоторое инженерные проблемы, а квантовая физика нам показывает, что после определенного предела, нам уже будет мешать квантовые законы. Интуитивно нам понятно, что чем меньшая точность измерения, тем меньше информации мы получаем, и чем большая точность измерения, тем больше информации мы получаем. Формула Шеннона не подходит для измерения количества аналоговой информации, но для этого существуют другие методы, которые рассматриваются в «Теории информации». В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено – не намагничено, есть отверстие – нет отверстия, заряжено – не заряжено, отражает свет – не отражает свет, высокий электрический потенциал – низкий электрический потенциал. При этом одно состояние принято обозначать цифрой 0, а другое – цифрой 1. Последовательностью битов можно закодировать любую информацию: текст, изображение, звук и т.п.


Наравне с битом, часто используется величина называемая байтом, обычно она равна 8 битам. И если бит позволяет выбрать один равновероятный вариант из двух возможных, то байт - 1 из 256 (2^8). Для измерения количества информации также принято использовать более крупные единицы:

1 Кбайт (один килобайт) 210 байт = 1024 байта

1 Мбайт (один мегабайт) 210 Кбайт = 1024 Кбайта

1 Гбайт (один гигабайт) 210 Мбайт = 1024 Мбайта

Реально приставки СИ кило-, мега-, гига- должны использоваться для множителей 10^3, 10^6 и 10^9, соответственно, но исторически сложилась практика использования множителей со степенями двойки.


Бит по Шеннону и бит, который используется в компьютерной технике, совпадают, если вероятности появления нуля или единички в компьютерном бите равны. Если вероятности не равны, то количества информации по Шеннону становиться меньше, это мы увидели на примере марсианского динозавра. Компьютерное количество информации дает верхнюю оценку количества информации. Энергозависимая память после подачи на неё питания инициализируется обычно каким-то значением, например, все единички или все нули. Понятно, что после подачи питания на память, никакой информации там нет, так как значения в ячейках памяти строго определены, никакой неопределенности нет. Память может хранить в себе какое-то количество информации, но после подачи на неё питания никакой информации в ней нет.

Дезинформация - заведомо ложная информация, предоставляемая противнику или деловому партнёру для более эффективного ведения боевых действий, сотрудничества, проверки на утечку информации и направление её утечки, выявление потенциальных клиентов чёрного рынка.Также дезинформацией (также дезинформированные) называется сам процесс манипулирования информацией, как то: введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, искажения контекста, искажения части информации.


Цель такого воздействия всегда одна - оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель - это действие, которое будет предпринято оппонентом.

Дезинформация, таким образом, - это продукт деятельности человека, попытка создать ложное впечатление и, соответственно подтолкнуть к желаемым действиям и/или бездействию.

Виды дезинформации:

Введение в заблуждение конкретного лица или группы лиц (в том числе и целой нации);

Манипулирование (поступками одного человека или группы лиц);

Создание общественного мнения относительно какой-то проблемы или объекта.

Введение в заблуждение - это не что иное, как прямой обман, предоставление ложной информации. Манипулирование - это способ воздействия, направленный непосредственно на изменение направления активности людей. Выделяют следующие уровни манипулирования:

Усиление существующих в сознании людей выгодных манипулятору ценностей (идей, установок);

Частичное изменение взглядов на то или иное событие или обстоятельство;

Кардинальное изменение жизненных установок.

Создание общественного мнения - это формирование в обществе определённого отношения к выбранной проблеме.


Источники и ссылки

ru.wikipedia.org – свободная энциклопедия Википедия

youtube.com - видеохостинг ютуб

images.yandex.ua - картинки яндекс

google.com.ua - картинки гугл

ru.wikibooks.org - викиучебник

inf1.info – Планета Информатики

old.russ.ru – Русский Журнал

shkolo.ru – Информационный справочник

5byte.ru – Сайт информатики

ssti.ru – Информационные технологии

klgtu.ru - Информатика

informatika.sch880.ru - сайт учителя информатики О.В. Подвинцевой

bibliofond.ru - электронная библиотека Библиофонд

life-prog.ru - программирование

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

[Введите текст]

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РФ

Филиал федерального государственного бюджетного образовательного учреждения

высшего профессионального образования

«РОССИЙСКИЙ ГОСУДАРСТВЕННЫЙ ГУМАНИТАРНЫЙ УНИВЕРСИТЕТ»

в г. НАРО-ФОМИНСКЕ МОСКОВСКОЙ ОБЛАСТИ

ФАКУЛЬТЕТ ДОКУМЕНТОВЕДЕНИЯ

Ларина Анна Александровна

Курсовая работа по дисциплине «Информационное обеспечение управления»

Тема: Классификация информации

Наро-Фоминск 2013

C одержание

Введение

Глава 1. Классификация информации: понятие, принципы, критерии

1.1 Основные системы классификации информации

1.2 Признаки, лежащие в основе классификации информации

2.1 Международные

2.2 Общероссийские

Заключение

Список использованных источников

Введение

В настоящее время, чтобы успешно конкурировать на рынке товаров и услуг, их производители должны оперативно реагировать на быстро меняющиеся запросы потенциальных потребителей, обеспечивая высокое качество конечного продукта при минимальных издержках на его производство.

Для реализации этих задач компаниям-производителям приходится своевременно внедрять информационные системы, гарантирующие их поддержку. От того, насколько эффективно организовано взаимодействие специалистов управления (заказчиков, а в последующем пользователей информационных систем) и специалистов информационной сферы (разработчиков информационных систем), во многом зависят и сроки, и затраты, и качество создаваемых информационных систем.

Одним из элементов, играющих важную роль при разработке современных информационных систем, является организация кодирования информации. При этом особая роль отводится методам классификации информации. Это объясняется тем, что многообразие форм и значений, которые могут приобретать различные экономические показатели, обусловливает необходимость применения определенных принципов систематизации этой информации в целях обеспечения удобства ее хранения, поиска, обработки и использования в процессе подготовки управленческих решений.

Главная цель настоящей работы - рассмотрение классификации информации как неотъемлемой части информационного обеспечения управления, без которой невозможно эффективно и оперативно осуществлять управленческую деятельность.

Глава 1. Классификация информации: понятие, принципы, критерии

1.1 Основные системы классификации информации

Согласно федеральному закону «Об информации, информатизации и защите информации», под информацией понимаются «сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления». Вся информация объединяется в информационные системы - «организационно упорядоченные совокупности документов и информационных технологий, в том числе с использованием средств вычислительной техники и связи, реализующих информационные процессы».

Что же такое «классификация»? Классификация - это разделение множества объектов на подмножества по их сходству или различию в соответствии с принятыми методами. Классификация фиксирует закономерные связи между объектами с целью определения места объекта в системе, которая указывает на его свойства. С этой точки зрения, классификация является важнейшим средством создания системы хранения и поиска информации. Классификация носит всеобщий характер вследствие той роли, которую она может играть как инструмент научного познания, прогнозирования и управления.

Основание классификации - это признак, позволяющий распределять множество объектов на подмножества. Процесс классифицирования представляет собой процесс распределения объектов классификации в соответствии с выбранной системой классификации.

Необходимость классификации связана с выявлением общих свойств информационного объекта, разработкой правил и процедур обработки информации, сокращением объема и времени поиска необходимой информации, упрощением обработки информации. Система классификации - совокупность правил распределения объектов множества на подмножества на основании классификационных признаков и зависимости внутри признаков.

К системам классификации объектов предъявляется ряд требований: полнота охвата объектов рассматриваемой области, однозначность реквизитов, возможность включения новых объектов.

Каждая система классификации имеет такие основные характеристики, как гибкость, ёмкость, глубина и заполненность.

Характеристика

Свойства

1. Гибкость

Возможность включения в систему классификации новых классификационных признаков и объектов без нарушения её целостности.

2. Ёмкость

Количество (максимально возможное) классификационных группировок в системе классификации

3. Глубина

Количество допускаемых уровней (ступеней), соответствующих числу признаков классификации

4. Заполненность

Отношение фактического количества классификационных группировок к ёмкости системы

Известны и наиболее применяемы иерархическая, фасетная и дескрипторная системы классификации объектов.

При иерархической системе классификации множество объектов делится в зависимости от выбранного классификационного признака на классы (группировки), образующие I уровень. Каждый класс I уровня в соответствии со своими классификационными признаком делится на подклассы (II уровень). Каждый подкласс II уровня делится на группы (III уровень) и т.д.

При использовании иерархической системы классификации необходимо соблюдать следующие ограничения:

получающиеся на каждом уровне классификационные группировки должны составлять исходное множество объектов;

классификационные группировки на каждой ступени не должны пересекаться;

классификация на каждой ступени должна проводиться только по одному признаку.

Достоинствами иерархической системы классификации являются простота и логичность построения, возможность использования неограниченного количества классификационных признаков в различных ветвях иерархической структуры. Недостатки иерархической системы классификации: жёсткая структура, осложняющая внесение изменений; невозможность группировки объектов по заранее не предусмотренным признакам.

Для кодирования показателей преимущественно оценочного типа, имеющих относительно не сложную структуру записи, может быть применена фасетная классификация.

Фасетная система классификации позволяет разделить множество объектов одновременно по нескольким независимым друг от друга признакам. Признак классификации, который используется для образования независимых классификационных группировок, называется фасетом.

Фасет представляет собой совокупность однородных значений классификационного признака. Внутри фасета значения могут располагаться в произвольном порядке или быть упорядоченными, поэтому внесение изменений в фасеты не представляет каких-либо трудностей. Классификация заключается в присвоении значений из фасетов. Главное требование при заполнении фасета - исключение возможности повторения одних и тех же значений классификационных признаков в различных фасетах.

Достоинствами фасетной системы классификации являются высокая степень гибкости, использование большого числа признаков классификации и их значений для создания группировок, простота модификации систем без изменения структуры группировок. К недостаткам фасетной системы классификации можно отнести сложность структуры построения и низкую степень заполненности системы.

Примером другой системы классификации, широко используемой при организации поиска информации, является дескрипторная классификация. Язык дескрипторной системы приближен к естественному профессиональному языку описания информационных объектов, что является его достоинством. При этой классификации выделяется совокупность ключевых слов или словосочетаний, описывающих тот или иной объект предметной области. Среди ключевых слов, являющихся синонимами, выбирается одно, называемое дескриптором (дескриптор - единственный член синонимического ряда ключевых слов). С помощью дескрипторов создается внутренний поисковый образ конкретных информационных запросов.

Для автоматизации поиска информации между дескрипторами устанавливаются ассоциативные связи, несущие различную смысловую и синтаксическую нагрузку. На основе выявленных связей между словами, составляющими язык данной предметной области, строятся так называемые семантические карты, отражающие все многообразие ассоциативных взаимосвязей между дескрипторами. С их помощью могут быть реализованы переходы от одного дескриптора к другому, связанному с ним по смыслу.

Достоинства дескрипторной системы могут быть использованы при решении актуальной проблемы разработки информационных систем непосредственно по запросам специалистами управления без привлечения профессиональных программистов.

1.2 Признаки, лежащие в основе классификации информации

Любая классификация всегда относительна. Один и тот же объект может быть классифицирован по разным признакам или критериям. Часто встречаются ситуации, когда в зависимости от условий внешней среды объект может быть отнесен к разным классификационным группировкам.

В основу классификации информации, действующей в организации, положено пять наиболее общих признаков: место возникновения, стадия обработки, способ отображения, стабильность, функция управления.

Основные классификационные критерии:

1. Место возникновения. По месту возникновения информацию можно разделить на входную, выходную, внутреннюю, внешнюю. Входная информация - это информация, поступающая в фирму или её подразделения. Выходная информация - это информация, поступающая из фирмы в другую фирму, организацию. Одна и та же информация может являться входной для одной фирмы, а для другой, её вырабатывающей, выходной. По отношению к объекту управления (фирма или её подразделение: цех, отдел, лаборатория) информация может быть определена как внутренняя, так и внешняя. Внутренняя информация возникает внутри объекта, внешняя информация - за пределами объекта.

2. Стадия обработки. По стадии обработки информация может быть первичной, вторичной, промежуточной, результативной. Первичная информация - это информация, которая возникает непосредственно в процессе деятельности объекта и регистрируется на начальной стадии.

Вторичная информация - это информация, которая получается в результате обработки первичной информации и может быть промежуточной и результативной.

Промежуточная информация используется в качестве исходных данных для последующих расчетов.

Результатная информация получается в процессе обработки первичной и промежуточной информации и используется для выработки управленческих решений.

3. Способ отображения. По способу отображения информация подразделяется на текстовую и графическую.

Текстовая информация - это совокупность алфавитных, цифровых и специальных символов, с помощью которых представляется информация на физическом носителе (бумага, изображение на экране дисплея).

Графическая информация - это различного рода графики, диаграммы, схемы, рисунки и т.д.

4. Стабильность. По стабильности информация может быть переменной (текущей) и постоянной (условно-постоянной). Переменная информация отражает фактические количественные и качественные характеристики производственно-хозяйственной деятельности фирмы. Она может меняться для каждого случая как по назначению, так и по количеству (например, количество произведенной продукции за смену, еженедельные затраты на доставку сырья). Постоянная информация - это неизменная и многократно используемая в течение длительного периода времени информация. Постоянная информация может быть справочной, нормативной, плановой:

постоянная справочная информация включает описание постоянных свойств объекта в виде устойчивых длительное время признаков (например, табельный номер служащего, профессия работника, номер цеха и т.д.),

постоянная нормативная информация содержит местные, отраслевые и общегосударственные нормативы (например, размер налога на прибыль, стандарт на качество продуктов определённого вида, размер минимальной оплаты труда и т.д.),

постоянная плановая информация содержит многократно используемые в фирме плановые показатели (например, план выпуска телевизоров, план подготовки специалистов определенной квалификации).

5. Функции управления. По функциям управления обычно классифицируют экономическую информацию. При этом выделяют следующие группы: плановую, нормативно-справочную, учётную и оперативную (текущую).

Плановая информация - информация о параметрах объекта управления на будущий период. На эту информацию идёт ориентация всей деятельности фирмы.

Нормативно-справочная информация содержит различные нормативные и справочные данные. Её обновление происходит достаточно редко.

Учётная информация - это информация, которая характеризует деятельность фирмы за определённый прошлый период времени. На основании этой информации могут быть проведены следующие действия: скорректирована плановая информация, сделан анализ хозяйственной деятельности фирмы, приняты решения по более эффективному управлению работами и т.д. На практике в качестве учётной информации может выступать информация бухгалтерского учёта, статистическая информация и информация оперативного учёта.

Оперативная (текущая) информация - это информация, используемая в оперативном управлении и характеризующая производственные процессы в текущий (данный) период времени. К оперативной информации предъявляются серьёзные требования по скорости поступления и обработки, а также по степени её достоверности. От того, насколько быстро и качественно проводится её обработка, во многом зависит успех фирмы на рынке.

2.1 Международные классификаторы информации

Классификатор ТЭСИ является нормативным документом, который представляет собой систематизированный свод наименований и кодов классификационных группировок и (или) объектов классификации.

Выделяют уровни классификаторов:

международные;

межгосударственные (внутри СНГ)

общероссийские;

отраслевые

локальные

Международные классификаторы входят в состав Системы международных экономических стандартов (СМЭС) и обязательны для передачи информации между различными странами. СМЭС представляет собой множество стандартных решений по классификационным группировкам и кодированию специальной и экономической информации и формированию источников этой информации. В состав СМЭС входят классификации Организации Объединенных наций (ООН) и ее специализированных образований, в том числе:

Международная стандартная отраслевая классификация всех видов экономической деятельности (МСОК);

Классификация основных продуктов (КОП);

Международная стандартная торговая классификация (МСТК);

Классификация функций органов управления (КФОУ);

Классификация функций правительства;

Классификации продовольственных и сельскохозяйственных организаций (РАО);

Классификации международной организации труда (МОТ);

Классификации ООН по вопросам образования, науки и культуры (ЮНЕСКО);

Международная стандартная классификация образования (МСКО).

К классификациям Европейского сообщества и других международных региональных организаций относят:

Классификацию Европейского сообщества (ЕС);

Общую отраслевую классификацию экономической деятельности в рамках ЕС (КДЕС) и другие.

Существуют следующие системы взаимодействия классификаторов экономической информации:

система равноправных классификаторов характеризуется тем, что на каждом уровне управления для целей обработки информации используется свой локальный классификатор, а для получения или передачи информации из внешней среды используется соответствующий транслятор. Недостаток данной системы заключается в том, что та система, которая имеет на входе наибольшее количество потоков информации от различных организаций, должна иметь наибольшее количество трансляторов;

система приоритетных классификаторов применяется для предприятий одной отрасли. При этой системе на каждом предприятии этой отрасли и на каждом уровне управления имеются локальные классификаторы. Обмен информацией осуществляется в терминах классификатора вышестоящего уровня. Эта система дает уменьшение количества трансляторов независимо от числа входных и выходных потоков. Однако трудности возникают при передаче потоков информации между предприятиями, относящимися к разным отраслям;

система классификаторов-посредников применяется при межотраслевом управлении. На каждом объекте любого уровня управления обработка ведется в терминах своего локального классификатора, а обмен - в терминах одного классификатора-посредника. Преимущества такой системы заключаются в необходимости создания только одного транслятора для каждого предприятия и в обеспечении возможности централизованного ведения классификатора-посредника, что дает минимальное количество ошибок при кодировании информации.

система единого классификатора предназначена для обработки информации на всех предприятиях, входящих в состав экономической макросистемы, но реально ее нельзя осуществить из-за необходимости кодирования всей информации, существующей в стране.

2.2 Общероссийские классификаторы

Создание в России единого информационного пространства и объединение его с европейским и мировым информационным пространством давно уже стало одной из важнейших задач, от решения которых во многом зависит дальнейшее развитие страны. Решение этой задачи возможно только при условии гармонизации российских и зарубежных информационных систем и обеспечении информационной совместимости всех взаимодействующих информационных систем.

Достижение информационной совместимости обеспечивается унификацией и стандартизацией средств информационной техники, носителей информации, языка формализованного описания данных, структуры информационных систем и технологических процессов в них.

Общероссийский классификатор (ОК) - это классификатор, принятый Госстандартом РФ и обязательный для применения в определенных сферах деятельности, установленных разработчиком по согласованию с министерствами и ведомствами.

ОК разрабатывается в тех случаях, когда они:

1. обеспечивают сопоставимость данных в различных областях и уровнях хозяйственной деятельности;

2. эти классификаторы обеспечивают гармонизацию с международными классификаторами;

3. они информационно связаны с действующими ОК;

Классификаторы, действующие на территории Российской Федерации, входят в Единую систему классификации и кодирования (ЕСКК).

Общероссийские классификаторы были переработаны в соответствии с требованиями рыночной экономики и государственной программой перехода Российской Федерации на Международную систему учёта и статистики. К ним относятся: 1. общероссийский классификатор информации об общероссийских классификаторах (ОКОК). Разработан Федеральным государственным унитарным предприятием "Всероссийский научно-исследовательский институт классификации, терминологии и информации по стандартизации и качеству" (ФГУП "ВНИИКИ") Госстандарта России. Общероссийский классификатор информации об общероссийских классификаторах (ОКОК) входит в состав национальной системы стандартизации Российской Федерации. ОКОК предназначен для:

Обеспечения совместимости государственных информационных систем и ресурсов, создаваемых на федеральном и региональном уровнях управления в Российской Федерации;

Контроля за составом общероссийских классификаторов технико-экономической и социальной информации (далее - общероссийские классификаторы) и исключения дублирования различных общероссийских классификаторов и фасетов в них;

Отражения информации об использовании международных (региональных, межгосударственных) классификаций и стандартов в общероссийских классификаторах.

Объектом классификации в ОКОК является информация об общероссийских классификаторах технико-экономической и социальной информации и фасетах, включенных в общероссийские классификаторы.

2.Общероссийский классификатор видов экономической деятельности (ОКВЭД). Разработан Министерством экономического развития и торговли Российской Федерации, Центром по экономическим классификациям. Общероссийский классификатор видов экономической деятельности входит в состав Единой системы классификации и кодирования технико - экономической и социальной информации (ЕСКК) Российской Федерации. Предназначен для классификации и кодирования видов экономической деятельности и информации о них.

ОКВЭД используется при решении задач, связанных с:

Классификацией и кодированием видов экономической деятельности, заявляемых хозяйствующими субъектами при регистрации;

Определением основного и других фактически осуществляемых видов экономической деятельности хозяйствующих субъектов;

Разработкой нормативных правовых актов, касающихся государственного регулирования отдельных видов экономической деятельности;

Осуществлением государственного статистического наблюдения по видам деятельности за развитием экономических процессов;

Подготовкой статистической информации для сопоставлений на международном уровне;

Кодированием информации о видах экономической деятельности в информационных системах и ресурсах, едином государственном регистре предприятий и организаций, других информационных регистрах;

Объектами классификации в ОКВЭД являются виды экономической деятельности. ОКВЭД включает перечень классификационных группировок видов экономической деятельности и их описания.

3.Общероссийский классификатор информации о населении (ОКИН) входит в состав Единой системы классификации и кодирования технико-экономической и социальной информации Российской Федерации (ЕСКК).

ОКИН предназначен для использования при сборе, обработке и анализе демографической, социальной и экономической информации о населении, решения задач учета, анализа и подготовки кадров предприятиями, учреждениями и организациями всех форм собственности, министерствами и ведомствами. ОКИН состоит из фасетов, которые можно использовать независимо друг от друга при решении различных задач. При разработке ОКИН использован Общесоюзный классификатор технико-экономических и социальных показателей.

4.Общероссийский классификатор услуг населению (ОКУН). Общероссийский классификатор услуг населению (ОКУН) является составной частью Единой системы классификации и кодирования технико-экономической и социальной информации (ЕСКК ТЭИ). Классификатор разработан для решения следующих задач:

Развития и совершенствования стандартизации в сфере услуг населению;

Осуществления сертификации услуг с целью обеспечения безопасности жизни, здоровья потребителей и охраны окружающей среды, предотвращения причинения вреда имуществу потребителей;

Учета и прогнозирования объемов реализации услуг населению;

Изучения спроса населения на услуги;

Актуализации видов услуг с учетом новых социально-экономических условий в Российской Федерации.

Объектами классификации являются услуги населению, оказываемые предприятиями и организациями различных организационно-правовых форм собственности, использующими различные формы и методы обслуживания.

Для классификатора услуг населению принята иерархическая классификация с делением всего классификационного множества объектов на группы. Затем каждую группу делят на подгруппы, которые в свою очередь делят на виды деятельности по целевому функциональному назначению. В ОКУН используют последовательную систему кодирования.

5.Общероссийский классификатор профессий рабочих, должностей служащих и тарифных разрядов (ОКПДТР);

6.Общероссийский классификатор валюты (ОКВ);

7.Общероссийский классификатор продукции (ОКП).

Заключение

Рассмотренные в работе системы классификации хорошо приспособлены для организации поиска с целью последующей логической и арифметической обработки информации. Благодаря применению систем классификации обеспечивается унификация восприятия информации и процессов ее обработки в системах экономического управления, стандартизация обрабатываемой информации, что приводит к сокращению затрат на создание и эксплуатацию информационных систем, повышению их эффективности.

Классификация информации необходима для комплексного и системного подхода ко всем информационным и, в частности, к документационным проблемам.

Без классификации информации невозможно проведения автоматизации управления, что выходит на первое место в современных условиях. При отсутствии должной классификации информации падает скорость, продуктивность и эффективность управленческого труда.

Итак, классификация информации сегодня является важнейшим средством создания систем хранения и поиска информации, без которых невозможно эффективное функционирование информационного обеспечения управления.

Список использованных источников

1. Гражданский кодекс Российской Федерации, 1994, ст. 3301.

2. Федеральный закон Российской Федерации «Об информации, информационных технологиях и защите информации», от 27.07.2006

3. Постановление Правительства РФ "О развитии единой системы классификации и кодирования технико-экономической и социальной информации" от 1 ноября 1999 г. «КонсультантПлюс»

4. ГОСТ 6.01.1-87 Единая система классификации и кодирования технико-экономической информации. Основные положения [электронный ресурс]: «КонсультантПлюс».

5. Общероссийский классификатор информации об общероссийских классификаторах (ОКОК)[электронный ресурс]: от 25 декабря 2002 г. «КонсультантПлюс».

6. Общероссийский классификатор информации о населении (ОКИН) [электронный ресурс]: 31 июля 1995 г. «КонсультантПлюс».

7. Информационные системы в экономике: Учебное пособие под ред. проф. Д.В. Чистова. - М.:ИНФРА - М, 2009. - 234 с.

Размещено на Allbest.ru

Подобные документы

    Признаки классификации информации. Коммуникации как процесс передачи информации от источника к получателю с целью изменения его знаний установок или поведения. Преграды межличностных коммуникаций (микробарьеры). Пути улучшения системы коммуникации.

    презентация , добавлен 12.03.2014

    Категории управленческой информации в финансовой сфере, источники ее получения и определение качества. Финансовая информация, влияющая на принятие управленческого решения. Технология принятия управленческого решения на основе полученной информации.

    курсовая работа , добавлен 29.10.2014

    Сущность информации и ее классификация. Анализ сведений, относимых к коммерческой тайне. Исследование возможных угроз и каналов утечки информации. Анализ мер защиты. Анализ обеспечения достоверности и защиты информации в ООО "Тисм-Югнефтепродукт".

    дипломная работа , добавлен 23.10.2013

    Назначение и краткая характеристика систем поддержки принятия решений. Концепции и принципы теории принятия решений. Получение информации, критерии принятия решений и их шкалы. Схема классификации возможных источников и способов получения информации.

    курсовая работа , добавлен 14.02.2011

    Понятие информации, ее сущность и особенности, методы и источники получения. Механизм функционирования экономической информационной системы, ее классификация и разновидности, характеристика и отличительные черты. Преимущества систем автоматизации.

    курсовая работа , добавлен 14.04.2009

    Использование учетной информации и функции учета в системе управления предприятием. Принципы реализации учетной деятельности. Виды учета в соответствии с назначением учетной информации. Категории информации для планирования, ее источники и объекты.

    реферат , добавлен 09.11.2011

    Система управленческой информации, ее классификация. Особенности методов сбора и анализа информации в государственных органах Российской Федерации. Повышение эффективности функционирования коммуникационной структуры. Перемещение коммуникативных потоков.

    курсовая работа , добавлен 16.09.2015

    Понятие информации, источники управленческой информации и информационные службы на предприятиях. Процесс промышленной разведки конфиденциальных сведений и их защита. Виды управленческой информации и информационные системы управления предприятием.

    реферат , добавлен 17.08.2009

    Понятие информации как средства коммуникации. Ее важность для принятия управленческих решений. Общая характеристика ОАО "Синар". Анализ информационных потоков на предприятии. Рекомендации по совершенствованию процесса передачи и обработки информации.

    курсовая работа , добавлен 15.07.2011

    Свойства, показатели и классификация проектно-нормативной информации. Современные технологии автоматизированного учета, обработки и хранения документированной отчетно-распорядительной информации. Управленческие информационные системы в строительстве.

Информацию можно условно делить на различные виды, основываясь на том или ином ее свойстве или характеристике. На рис. 1.3. приведена обобщенная схема классификаций информации, данных в работах . В основу классификации положено девять следующих принципов: форма общественного сознания, степень значимости, способ кодирования, сфера и место возникновения, стадия обработки, способ отображения, передачи и восприятия, стабильность.

Рис. 1.3. Классификация информации

По форме общественного сознания различают экономическую, политическую, правовую, научную, эстетическую, религиозную, философскую информации.

Экономическая информация - важнейшая часть информации, отражающая отношение людей в процессе материального производства и оказывающая влияние не только на экономику, но и на все важнейшие сферы общественного разделения труда и формы сознания.

Политическая информация охватывает, прежде всего, явления, факты и события политической жизни общества - отношения между классами, нациями, государствами. Эта информация выступает в качестве важного средства властвования и управления.

Правовая информация оперирует нормами, правилами, устанавливаемыми государством в соответствии с его целями и интересами, регулирует отношения и поведение людей.

Научная информация - это получаемая в процессе познания логическая информация, адекватно отображающая закономерности объективного мира и используемая в общественно-исторической парадигме.

Эстетическая информация - часть информации, доступная чувственному восприятию и составляющая аспект художественных образов (или их стороны, которая может так или иначе передаваться во времени и пространстве).

Религиозная информация - такая сторона и часть отображения человеком природных и социальных сил и процессов, в котором они обретают форму сверхъестественного.

Философская информация - часть информации, передаваемая -частным наукам и в другие сферы деятельности человека в качестве мировоззренческих и методологических знаний.

По общественному назначению (по степени значимости) информацию можно подразделять на массовую (общественную), специальную и личную.

Массовая информация подразделяется в свою очередь на:

общественно-политическую (получение из средств массовой информации);

обыденную (информация процесса повседневного общения);

научно-популярную (научно-осмысленный опыт всего человечества, исторические, культурные и национальные традиции).

Специальная информация подразделяется на производственную, техническую, управленческую и научную. Техническая информация имеет следующие градации: станкостроительная, машиностроительная, инструментальная. Научная информация подразделяется на биологическую, математическую, физическую...

Личная информация - это знания, опыт, интуиция, умения, планы, прогнозы, эмоции, чувства, наследственная память конкретного человека.

По способу кодирования сигнала информацию можно разделить на аналоговую и цифровую.

Аналоговый сигнал информацию о величине исходного параметра, о котором сообщается в информации, представляет в виде величины другого параметра, являющегося физической основой сигнала, его физическим носителем. Например, величины углов наклона стрелок часов - это основа для аналогового отображения времени. Высота ртутного столбика в термометре - это тот параметр, который дает аналоговую информацию о температуре. Чем больше длина столбика в термометре, тем больше температура. Для отображения информации в аналоговом сигнале используются все промежуточные значения параметра от минимального до максимального, т.е. теоретически бесконечно большое их число.

Цифровой сигнал использует в качестве физической основы для записи и передачи информации только минимальное количество таких значений, чаще всего только два. Например, в основе записи информации в ЭВМ применяются два состояния физического носителя сигнала - электрического напряжения. Одно состояние - есть электрическое напряжение, условно обозначаемое единицей (1), другое - нет электрического напряжения, условно обозначаемое нулем (0). Для передачи информации о величине исходного параметра необходимо использовать представление данных в виде комбинации нулей и единиц, т.е. цифровое представление. Интересно, что одно время были разработаны и использовались вычислительные машины, в основе которых стояла троичная арифметика, так как в качестве основных состояний электрического напряжения естественно взять три следующие: 1) напряжение отрицательно, 2) напряжение равно нулю, 3) напряжение положительно. До сих пор выходят научные работы, посвященные таким машинам и описывающие преимущества троичной арифметики. Сейчас ъ конкурентной борьбе победили производители двоичных машин. Будет ли так всегда? Приведем некоторые примеры бытовых цифровых устройств. Электронные часы с цифровой индикацией дают цифровую информацию о времени. Калькулятор производит вычисления с цифровыми данными. Механический замок с цифровым кодом тоже можно назвать примитивным цифровым устройством.

По сфере возникновения существует следующая классификация. Информацию, возникшую в неживой природе называют элементарной, в мире животных и растений - биологической, в человеческом обществе -социальной. В природе, живой и неживой, информацию несут - цвет, свет, тень, звуки и запахи. В результате сочетания цвета, света и тени, звуков и запахов возникает эстетическая информация. Наряду с естественной эстетической информацией, как результат творческой деятельности людей, возникла другая разновидность информации - произведения искусств. Кроме эстетической информации, в человеческом обществе создается семантическая информация как результат познания законов природы, общества, мышления. Деление информации на эстетическую и семантическую очевидно очень условно, просто необходимо понимать, что в одной информации может преобладать ее семантическая часть, а в другой - эстетическая.

По месту возникновения информацию можно разделить на следующие виды.

Входная информация - это информация, поступающая в организацию или ее подразделения.

Выходная информация - это информация, поступающая из организации в другую организацию (подразделение).

Внутренняя информация возникает внутри объекта, внешняя информация - за пределами объекта.

По стадии обработки информация подразделяется На следующие виды.

Первичная информация - это информация, которая возникает непосредственно в процессе деятельности объекта и регистрируется на начальной стадии.

Вторичная информация - это информация, которая получается в результате обработки первичной информации и может быть промежуточной и результатной.

Промежуточная информация используется в качестве исходных данных для последующих расчетов.

Результатная информация получается в процессе обработки первичной и промежуточной информации и используется для выработки управленческих решений.

По способу отображения информация подразделяется на текстовую и графическую.

Текстовая информация - это совокупность алфавитных, цифровых и специальных символов, с помощью которых представляется информация на физических носителях (бумага, изображение на экране дисплея).

Графическая информация - это различного рода графики, диаграммы, схемы, рисунки и т.д.

По способу передачи и восприятия информацию принято классифицировать следующим образом. Информация, передаваемая в виде видимых образов и символов называется визуальной; передаваемая звуками - аудиальной ; ощущениями - тактильной ; запахами - вкусовой . Информация, воспринимаемая оргтехникой и компьютерами, называется машинно-ориентированной информацией . Количество машинно-ориентирован ной информации постоянно увеличивается в связи с непрерывно возрастающим использованием новых информационных технологий в различных сферах человеческой жизни.

Около 80-90% информации человек получает при помощи органов зрения (визуально), примерно 8-15% при помощи органов слуха (аудиально), примерно 1-5% - при помощи остальных органов чувств (обоняния, вкуса, осязания).

По стабильности информация может быть переменной (текущей) и постоянной (условно-постоянной).

Переменная информация отражает фактические количественные и качественные характеристики производственно-хозяйственной деятельности предприятия. Она может меняться для каждого случая, как по назначению, так и по количеству.

Постоянная информация - это неизменная и многократно используемая в течение длительного времени информация.

Постоянная информация может быть справочной, нормативной, плановой. Постоянная справочная информация включает описание постоянных свойств объекта в виде устойчивых длительное время признаков. Постоянная нормативная информация содержит местные, отраслевые и общегосударственные нормативы в различных областях деятельности человека. Постоянная плановая информация содержит многократно используемые на предприятии плановые показатели производственных процессов.

Существуют и другие варианты классификации информации. Конкретный исследователь выбирает для себя ту или иную классификацию в зависимости от стоящей перед ним проблемы, от тех взаимосвязей, которые он изучает.

Вопрос № 1

Понятие "информация". Слово "информация" происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие "информация" является базовым в курсе информатики, невозможно дать его определение через другие, более "простые" понятия.

Свойства информации.

1. Атрибутивные свойства - это те свойства, без которых информация не существует.

2. 2. Прагматические свойства - это те свойства, которые характеризуют степень полезности информации для пользователя, потребителя и практики. Проявляются в процессе использования информации

3. 3. Динамические свойства - это те свойства, которые характеризуют изменение информации во времени.

Вопрос№2

Классификация информации как неотъемлемая часть информационного обеспечения управления, без которой невозможно эффективно и оперативно осуществлять управленческую деятельность. Категории классификаторов ТЭСИ и их статус (международные, общероссийские)

Формы передачи сигналов

Используемые методы разделения каналов (РК) можно классифицировать на линейные и нелинейные (комбинационные).

В большинстве случаев разделения каналов каждому источнику сообщения выделяется специальный сигнал, называемый канальным . Промодулированные сообщениями канальные сигналы объединяются, в результате чего образуется групповой сигнал . Если операция объединения линейна, то получившийся сигнал называют линейным групповым сигналом .

Для унификации многоканальных систем связи за основной или стандартный канал принимают канал тональной частоты (канал ТЧ), обеспечивающий передачу сообщений с эффективно передаваемой полосой частот 300...3400 Гц, соответствующей основному спектру телефонного сигнала.

Многоканальные системы образуются путем объединения каналов ТЧ в группы, обычно кратные 12 каналам. В свою очередь, часто используют "вторичное уплотнение" каналов ТЧ телеграфными каналами и каналами передачи данных.

Kлассификация информации. Формы передами информации.

Информацию можно разделить на виды по разным критериям:

1.по истинности:истинная и ложная;

2.по способу восприятия: Визуальная - воспринимаемая органами зрения: Аудиальная - воспринимаемая органами сдуха:Та ктильная - воспринимаемая тактильными рецепторами; Обонятельная - воспринимаемая обонятельными рсцепторами;Вкусовая - воспринимаемая вкусовыми рецепторами.

3.по форме представления

Текстовая - передаваемая в виде символов, предназначенных обозначать лексемы языка.

Числовая - в -виде цифр и знаков, обозначающих математические действия.

Г паническая - в виде изображений, предметов, графиков.

Звуковая - устная или в виде записи передача лексем языка аудиальным путём.

4.по назначению

Массовая - содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума. Специальная - содержит специфический набор понятий, при использовании j происходит передача сведений, которые могут быть не понятны основной массе социумСекретная - передаваемая узкому кругу лиц и по закрытым (защищённым) каналам.

Личная (приватная) - набор сведений о какой-либо личности, определяющий " социальное положение и типы социальных взаимодействий внутри популяции.

5.по значению

Актуальная - информация ценная в данный момент времени.

Достоверная - информация, полученная без искажений.

Понятная - ин(|юрмация выраженная на языке понятном тому, кому она предназначена.

Полная - информация, достаточная для принятия правильного решения или

понимания. Полезная - полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

Передача информации

Передачей семантической информации называется процесс её пространственного переноса от источника к получателю (адресат)")- Для передачи информации на большие расстояния необходимо использовать информационные процессы.

Для представления информации используются различные знаковые системы - наборы заранее оговоренных смысловых символов: предметов,1 картинок, написанных или напечатанных слов естественного языка.

I Представленная с их помощью семантическая информация о каком-либо объекте, явлении или процессе называется сообщением, j Очевидно, что для передачи сообщения на расстояние информация должна быть перенесена на какой-либо мобильный носитель. Носители могут перемещаться в пространстве с помощью транспортных средств. Такой способ обеспечивает полную достоверность передачи информации, поскольку адресат получает оригинал сообщения, однако требует значительного времени для передачи. С середины XIX века получили распространение способы передачи информации; использующие естественно распространяющийся носитель информации - электромагнитные колебания (электрические колебания, радиоволны, свет). Реализация этих способов требует:предварительного переноса информации, содержащейся в сообщении, на носитель - кодирования обеспечения передачи полученного таким образом сигнала адресату по специальному каналу связи:обратного преобразования кода сигнала в код сообщения - декодирования. Устройства, реализующие процесс передачи данных, образуют, системы связи. В зависимости от способа представления информации системы связи можно подразделять на знаковые (телеграф, телефакс), звуковые (телефон), видео и комбинированные системы (телевидение). Наиболее развитой системой связи в наше время является Интернет.

Вопрос)

Информационные ресурсы - в широком смысле - совокупность данных, организованных для эффективного получения достоверной информации.

Это книги, статьи, патенты, диссертации, научно-исследовательская и опытно-конструкторская документация, технические переводы, данные о передовом производственном опыте и др.

Информационные ресурсы (в отличие от всех других видов ресурсов - трудовых, энергетических, минеральных и т.д.) тем быстрее растут, чем больше их расходуют.

Ресурсы - это имеющиеся в наличии запасы, средства, которые могут быть использованы при необходимости. В настоящее время учёные и практики относят информационные ресурсы к важным стратегическим ресурсам, от которых зависит развитие экономики, науки, образования, культуры и т.д. Первые попытки дать определение информационным ресурсам были сделаны в 90-е годы XX столетия, когда оформился так называемый "ресурсный подход" к изучению информации. Используется узкое и широкое понимание информационных ресурсов: в узком понимании имеются в виду только сетевые информационные ресурсы, доступные через компьютерные средства связи, а в широком - любую зафиксированную на традиционных или электронных носителях информацию, пригодную для сохранения и распространения.

Информационные ресурсы могут быть различных видов - этлто средства массовой информации, библиотеки, интернет. Через Интернет могут успешно продаваться следующие информационные ресурсы:

Новостные ленты (on-line-новости). Например, лента финансовых и политических новостей жизненно необходима трейдерам для принятия решений о продажах и покупках на биржах;

Подписки на электронные копии периодических изданий. Некоторые газеты и журналы выпускают свои полные электронные копии и предоставляют к ним доступ;

Доступ к электронным архивам и базам данных, содержащим информацию по самым разным вопросам;

Аналитические отчеты и исследования;

Собственные аналитические материалы и прогнозы.

По категории доступа информационные ресурсы могут быть открытыми (общедоступными) или с ограниченным доступом. В свою очередь, документированная информация с ограниченным доступом подразделяется на отнесенную к государственной тайне и конфиденциальную.

Классификация информационных систем:

В широком смысле информационная система есть совокупность технического, программного и организационного обеспечения, а также персонала, предназначенная для того, чтобы своевременно обеспечивать надлежащих людей надлежащей информацией («информационной системой называется комплекс, включающий вычислительное и коммуникационное оборудование, программное обеспечение, лингвистические средства и информационные ресурсы, а также системный персонал и обеспечивающий поддержку динамической информационной модели некоторой части реального мира для удовлетворения информационных потребностей пользователей»).

В узком смысле информационной системой называют только подмножество компонентов ИС в широком смысле, включающее базы данных, система управления базами данных (СУБД) и специализированные прикладные программы. ИС в узком смысле рассматривают как программно-аппаратную систему, предназначенную для автоматизации целенаправленной деятельности конечных пользователей, обеспечивающую, в соответствии с заложенной в нее логикой обработки, возможность получения, модификации и хранения информации.

Задача ИС - удовлетворение конкретных информационных потребностей в рамках конкретной предметной области.

4. В силу безусловного приоритета двоичной системы счисления при внутреннем представлении информации в компьютере кодирование символов основывается на сопоставлении каждому из них определенной группы двоичных знаков. Кодирования-декодирования следует пользоваться равномерными кодами, т.е. двоичными группами равной длины.

Решить простейшую задачу: имея, скажем, равномерный код из групп по N двоичных знаков, сколько можно образовать разных кодовых комбинаций. Ответ очевиден К = 2 N . Итак, при N = 6 К = 64 - явно мало, при N = 7 К = 128 - вполне достаточно.

Однако, для кодирования нескольких (хотя бы двух) естественных алфавитов (плюс все отмеченные выше знаки) и этого недостаточно. Минимально достаточное значение N в этом случае 8; имея 256 комбинаций двоичных символов, вполне можно решить указанную задачу. Поскольку 8 двоичных символов составляют 1 байт, то говорят о системах «байтового» кодирования.

В канале связи сообщение, составленное из символов (букв) одного алфавита, может преобразовываться в сообщение из символов (букв) другого алфавита. Правило, описывающее однозначное соответствие букв алфавитов, называют кодом. Саму процедуру преобразования сообщения называют перекодировкой. Подобное преобразование сообщения может осуществляться в момент поступления сообщения от источника в канал связи (кодирование) и в момент приема сообщения получателем (декодирование).

Вопрос №5

Система счисле́ния - символический метод записи чисел, представление чисел с помощью письменных знаков.

Система счисления:

§ даёт представления множества чисел (целых и/или вещественных);

§ даёт каждому числу уникальное представление (или, по крайней мере, стандартное представление);

§ отражает алгебраическую и арифметическую структуру чисел.

§ Наиболее распространенными в настоящее время позиционными системами счисления являются: десятичная, восьмеричная и шестнадцатеричная . Каждая позиционная система имеет определенный алфавит цифр и основание.

Системы счисления

Системой счисления - называется способ представления и изображения чисел с использованием строго ограниченного набора символов, каждый из которых имеет определенные количественные значения. Числа в системах счисления представляются с помощью некоторого набора знаков – цифр , а их количество зависит от используемой системы.

Правила недесятичной арифметики - операция вычитания в двоичном коде заменяется операцией сложения с отрицательным числом, сложения двух положительных, положительного и отрицательного, отрицательного и положительного и двух отрицательных чисел. Вообще, операция сложения, наряду с операцией сдвига, являются основными, т.к. помимо вычитания, к ним сводятся и операции умножения и операции деления двоичных чисел. Деление двоичных чисел производится, как и в обычной десятичной системе счисления. На первом шаге следует проверить возможность вычитания делителя из делимого (результат не должен быть отрицательным), если это возможно в частное записывается единица, в противном случае нуль, а делитель сдвигается на один разряд вправо относительно делимого. Затем один разряд делимого сносят вниз и проверку повторяют. Знак результата получают сложением, как и при умножении.

Показатель Поколения ЭВМ
Первое 1951-1954 Второе 1958-I960 Третье 1965-1966 Четвертое Пятое?
А 1976-1979 Б 1985-?
Элементная база процессора Электронные лампы Транзисторы Интегральные схемы (ИС) Большие ИС (БИС) Сверхбольшие ИС (СБИС) +Оптоэлектроника +Криоэлектроника
Элементная база ОЗУ Электронно-лучевые трубки Ферритовые сердечники Ферритовые сердечники БИС СБИС СБИС
Максимальная емкость ОЗУ, байт 10 2 10 1 10 4 10 5 10 7 10 8 (?)
Максимальное быстродействие процессора (оп/с) 10 4 10 6 10 7 10 8 10 9 +Многопроцессорность 10 12 , +Многопроцессорность
Языки программирования Машинный код + Ассемблер + Процедурные языки высокого уровня (ЯВУ) + Новые процедурные ЯВУ +Непроцедурные ЯВУ + Новые непроцедур-ные ЯВУ
Средства связи пользователя с ЭВМ Пульт управления и перфокарты Перфокарты и перфоленты Алфавитно- цифровой терминал Монохромный графиче- ский дисплей, клавиатура Цветной + графический дисплей, клавиатура, «мышь» и др. Устройства голосовой связи с ЭВМ

В 1642 году Блез Паскаль сконструировал восьмиразрядный суммирующий механизм. В 1820 году француз Шарль де Кольмар создал арифмометр, способный производить умножение и деление. Все основные идеи, которые лежат в основе работы компьютеров, были изложены еще в 1833 году английским математиком Чарльзом Бэббиджем. Он разработал проект машины для выполнения научных и технических расчетов, где предугадал основные устройства современного компьютера, а также его задачи. Управление существлялось программным путем. Для ввода и вывода предлагал использовать перфокарты - листы из плотной бумаги с информацией, наносимой с помощью отверстий. В 1888 году американский инженер Герман Холлерит сконструировал первую электромеханическую счетную машину. Эта машина, названная табулятором, могла считывать и сортировать статистические записи, закодированные на перфокартах.

В феврале 1944 года на одном из предприятий Ай-Би-Эм (IBM) в сотрудничестве с учеными Гарвардского университета по заказу ВМС США была создана машина "Mark 1". Это был монстр весом около 35 тонн. В "Mark 1" использовались механические элементы для представления чисел и электромеханические - для управления работой машины. Числа хранились в регистрах, состоящих из десятизубных счетных колес. Каждый регистр содержал 24 колеса, причем 23 из них использовались для представления числа (т.е. "Mark 1" мог "перемалывать" числа длиной до 23 разрядов), а одно - для представления его знака. Регистр имел механизм передачи десятков и поэтому использовался не только для хранения чисел, находящееся в одном регистре, число могло быть передано в другой регистр и добавлено к находящемуся там числу(или вычтено из него). Всего в "Mark 1" было 72 регистра и, кроме того, дополнительная память из 60 регистров, образованных механическими переключателями. В эту дополнительную память вручную вводились константы - числа, которые не изменялись в процессе вычислений.Классификация ЭВМ

супер-ЭВМ - самая мощная вычислительная система, существующая в соответствующий исторический период

Большие ЭВМ более доступны, чем «супер».

Мини-ЭВМ - использование -либо для управления технологическими процессами, либо в режиме разделения времени в качестве управляющей машины небольшой локальной сети.

Микро-ЭВМ - Среди них выделяют многопользовательские, оборудованные многими выносными терминалами и работающие в режиме разделения времени; встроенные, которые могут управлять станком, какой-либо подсистемой автомобиля или другого устройства (в том числе и военного назначения), будучи его малой частью.

рабочая станция - используется в нескольких, порой несовпадающих, смыслах. Так, рабочей станцией может быть мощная микро-ЭВМ, ориентированная на специализированные работы высокого профессионального уровня, которую нельзя отнести к персональным компьютерам хотя бы в силу очень высокой стоимости.

8) Техника безопасности и правила эксплуатации устройств ПК.

1.К самостоятельной работе на ПК допускаются лица не моложе 18-ти лет,

прошедшие медицинское освидетельствование, специальное обучение, инструктаж по охране труда на рабочем месте, изучившие “Руководство по эксплуатации” и усвоившие безопасные методы и приемы выполнения работы.

Персонал, допущенный к работе на ПК по наладке, эксплуатации PR-нию обязан:

· получить инструктаж по охране труда;

· ознакомиться с общими правилами эксплуатации и указаниями по безопасности труда, которые содержаться в “Руководстве по эксплуатации”;

· познакомиться с предупреждающими записями на крышках, стенках, панелях блоков и устройств;

· познакомиться с правилами эксплуатации электрооборудования.

2. ПК должен подключаться к однофазной сети с нормальным напряжением 220 (120) В, частотой 50 (60) Гц и заземленной нейтрально. Заземляющие контакты розеток должны быть надежно соединены с контуром защитного заземления помещения. В помещении должен быть установлен автомат аварийного или рубильник общего отключения питания.

3. Запрещается самостоятельно производить ремонт ПК (его блоков), если это не входит в круг ваших обязанностей.

4. При эксплуатации ПК должны выполняться следующие требования, правила:

· не подключать и не отключать разъемы и кабели электрического питания при поданном напряжении сети;

· не оставлять ПК включенным без наблюдения;

· не оставлять ПК включенным во время грозы;

· по окончании работы отключить ПК от сети;

· устройства должны быть расположены на расстоянии 1 м от нагревательных приборов; рабочие места должны располагаться между собой на расстоянии не менее 1,5 метров;

· устройства не должны подвергаться воздействию прямых солнечных лучей;

непрерывная продолжительность работы при вводе данных на ПК не должна превышать 4 часов при 8-часовом рабочем дне, через каждый час работы необходимо делать перерыв 5-10 минут, через 2 часа на 15 минут;в помещении, где расположена компьютерная техника, должен быть оборудован уголок пожаротушения.

9. Полный комплект программного обеспечения, необходимого для организации, скажем, автоматизированного рабочего места (АРМ) инженера-проектировщика, научного работника (физика, химика, биолога и т.д.) по стоимости превосходит (порой в несколько раз) стоимость компьютера адекватного класса.

Всевозможные программные средства,

Операционные системы - это комплекс программ, обеспечивающих

Управление ресурсами, т.е. согласованную работу всех аппаратных средств компьютера;

Управление процессами, т.е. выполнение программ, их взаимодействие с устройствами компьютера, с данными;

Пользовательский интерфейс, т.е. диалог пользователя с компьютером, выполнение определенных простых команд - операций по обработке информации.

Системы программирования;

Инструментальные программные средства, интегрированные пакеты;

Прикладные программы.

10. Прикладные программы предназначены для того, чтобы обеспечить применение вычислительной техники в различных сферах деятельности человека. Разработчики прикладных программ большие усилия тратят на совершенствование и модернизацию популярных систем. Новые версии, поддерживают старые, сохраняя преемственность, и включают в себя базовый минимум (стандарт) возможностей.

Один из возможных вариантов классификации программных средств (ПС), составляющих прикладное программное обеспечение (ППО), отражен на рис.2.11. Как и почти всякая классификация, приведенная на рисунке не является единственно возможной. В ней представлены даже не все виды прикладных программ. Тем не менее, использование классификации полезно для создания общего представления о ППО.

Рис.2. П. Классификация прикладного программного обеспечения

12. На операционные системы персональных компьютеров наложила глубокий отпечаток концепция файловой системы, лежащей в основе операционной системы UNIX. В ОС UNIX подсистема ввода-вывода унифицирует способ доступа как к файлам, так и к периферийным устройствам. Под файлом при этом понимают набор данных на диске, терминале или каком-либо другом устройстве. Таким образом, файловая система - это система управления данными.

Файловые системы операционных систем создают для пользователей некоторое виртуальное представление внешних запоминающих устройств ЭВМ, позволяя работать с ними не на низком уровне, а на высоком уровне наборов и структур данных. Файловая система скрывает от программистов картину реального расположения информации во внешней памяти, а также обеспечивает стандартные реакции на ошибки. При работе с файлами пользователю предоставляются средства для создания новых файлов, операции по считыванию и записи информации.

NTFS стандартная файловая система для семейства операционных систем Microsoft Windows NT.NTFS заменила использовавшуюся в MS-DOS и Microsoft Windows файловую систему FAT. NTFS поддерживает систему метаданных и использует специализированные структуры данных для хранения информации о файлах для улучшения производительности, надёжности и эффективности использования дискового пространства. NTFS хранит информацию о файлах в главной файловой таблице - Master File Table . NTFS имеет встроенные возможности разграничивать доступ к данным для различных пользователей.Различают несколько версий ТЕАЫЖ м1ю2 используется в Windows NT 3.51 и Windows NT 4.0б м3ю0 поставляется с Windows 2000б м3ю1 - с Windows XP

FAT классическая архитектура файловой системы, которая используется для флеш-дисков и карт памяти. В недавнем прошлом использовалась в дискетах, на жёстких дисках и других носителях информации. В фат размер одного файла ограничен 4 гбРазработана Биллом Гейтсом и Марком МакДональдом (англ. ) в 1976-1977 годах. Использовалась в качестве основной файловой системы в операционных системах семейств DOS и Windows . Существует три версии FAT - FAT12 , FAT16 и FAT32 . Они отличаются разрядностью записей в дисковой структуре, то есть количеством бит, отведённых для хранения номера кластера. FAT12 применяется в основном для дискет, FAT16 - для дисков малого объёма. используемая преимущественно для флеш-накопителей.

11 ВОПРОС!)

1. Интерфейс - это способ общения пользователя с персональным компьютером, пользователя с прикладными программами и программ между собой. Интерфейс служит для удобства управления программным обеспечением компьютера. Интерфейсы бывают однозадачные и многозадачные, однопользовательские и многопользовательские. Интерфейсы отличаются между собой по удобству управления программным обеспечением, то есть по способу запуска программ. Существуют универсальные интерфейсы, допускающие все способы запуска программ, например Windows 3.1, Windows-95. Пример: Windows-95 имеет все способы запуска, в том числе позволяет запускать программы при помощи меню кнопки Пуск.

2. Типы интерфейсов.

2.1. Команднострочный (текстовый) интерфейс.

Для управления компьютером в командную строку пишется (вводится с клавиатуры) команда, например, имя командного файла программы или специально зарезервированные операционной системой служебные слова. Команда может быть при необходимости отредактирована. Затем для исполнения команды нажимается клавиша Enter. Данный тип интерфейса в качестве основного имеют все разновидности операционных систем, например MS-DOS 6.22. Как дополнительное средство данный тип интерфейса имеют все виды программных оболочек (Norton Commander, DOS Navigator и др.) и Windows 3.1, Windows-95/98. Команднострочный интерфейс неудобен, так как надо помнить имена многих команд, ошибка в написании даже одного символа недопустима. Он применяется редко в сеансе непосредственной работы с операционной системой или при сбоях, когда другие способы невозможны.

2.2. Графический полноэкранный интерфейс.

Он имеет, как правило, в верхней части экрана систему меню с подсказками. Меню часто бывает выпадающим (ниспадающим). Для управления компьютером курсор экрана или курсор мыши после поиска в дереве каталогов устанавливается на командные файлы программ (*.exe, *.com, *.bat) и для запуска программы нажимается клавиша Enter или правая кнопка мыши. Различные файлы могут выделяться разным цветом или иметь разный рисунок. Каталоги (папки) отделяются от файлов размером или рисунком.

Данный интерфейс является основным для всех видов программных оболочек. Пример: Norton Commander и нортонообразные оболочки (DOS Navigator, Windows Commander, Disk Commander). Подобный интерфейс имеют инструменты Windows 3.1 (Диспетчер файлов) и Windows-95/98 (Мой компьютер и Проводник). Такой интерфейс весьма удобен, особенно при работе с файлами, поскольку обеспечивает высокую скорость выполнения операций. Позволяет создавать пользовательское меню, запускать приложения по расширению файлов, что повышает скорость работы с программами.

2.3. Графический многооконный пиктографический интерфейс.

Представляет собой рабочий стол (DeskTop) на котором лежат пиктограммы (значки или иконки программ). Все операции производятся, как правило, мышью. Для управления компьютером курсор мыши подводят к пиктограмме и запуск программы осуществляют щелчком левой кнопки мыши по пиктограмме. Это наиболее удобный и перспективный интерфейс, особенно при работе с программами. Пример: интерфейс компьютеров Apple Macintosh, Windows 3.1, Windows-95/98, OS/2.

Приведем краткое описание и обозначение некоторых наиболее распространенных типов интерфейса оборудование связи/оконечное оборудование (DCE/DTE).

V.24 - это эквивалент RS-232, Com-порт, асинхронный порт (кстати, он умеет работать и в синхронном режиме). Порт низкоскоростной, хотя в последнее время стали появляться материнские платы, умеющие работать со скоростью до 230 400 бит/с. Его характеристики ограничены наличием только одного «земляного» провода и высоким уровнем логических единицы и нуля - -3В и +3В соответственно. Стандартный разъем - вилка DB-25 или DB-9 на оконечном устройстве (DTE, компьютер) и розетка DB-25 на устройстве связи (DCE, модем).

V.35 - первоначально разрабатывался как стандарт на высокоскоростные модемы, однако прижился только разработанный в рамках этого стандарта высокоскоростной интерфейс DCE/DTE. Он имеет низкий уровень логических единицы и нуля и дифференциальные линии пер

ВОПРОС № 13

13). Файлы, атрибуты. Формирование имен файлов...

файл именованная область на носителе информации. Файл имеет имя от 1до 255 . знаков препинание не должно быть в имени(кроме тире). Через точку можно ставить расширение имени которое указывает на формат файла DOC.EXE запускает файл. Атрибуты следующие характеристики файла(только для чтения, скрытые, системный, архивный) Файлы бывают текстовые, двоичные, графические. Имена носителя данных монтированы, как правило, мантированнных устройств записи хранения данных.

В информатике используют следующее определение: файл - поименованная последовательность байтов.

Работа с файлами реализуется средствами операционных систем.

Имена как у файлов имеют и обрабатываются похожим образом:

§ области данных (необязательно на диске);

§ устройства (как физические, порты например; так и виртуальные);

§ потоки данных (Именованный канал);

§ сетевые ресурсы, сокеты;

§ объекты операционной системы.

Файлы первого типа исторически возникли первыми и распространены наиболее широко, поэтому часто «файлом» называют и область данных, соответствующую имени.

Атрибуты

В некоторых файловых системах, таких как NTFS, предусмотрены атрибуты (обычно это бинарное значение «да»/«нет», кодируемое одним битом). Во многих современных операционных системах атрибуты практически не влияют на возможность доступа к файлам, для этого в некоторых операционных и файловых системах существуют права доступа.

Название атрибута перевод значение файловые системы операционные системы
READ ONLY только для чтения в файл запрещено писать DOS, OS/2, Windows
SYSTEM системный критический для работы операционной системы файл FAT32, FAT12, FAT16, NTFS, HPFS, VFAT DOS, OS/2, Windows
HIDDEN скрытый файл скрывается от показа, пока явно не указано обратное FAT32, FAT12, FAT16, NTFS, HPFS, VFAT DOS, OS/2, Windows
ARCHIVE архивный (требующий архивации) файл изменён после резервного копирования или не был скопирован программами резервного копирования FAT32, FAT12, FAT16, NTFS, HPFS, VFAT DOS, OS/2, Windows
SUID Установка пользовательского ID выполнение программы от имени владельца ext2 Unix-like
SGID Установка группового ID выполнение программы от имени группы (для каталогов: любой файл созданный в каталоге с установленным SGID, получит заданную группу-владельца) ext2 Unix-like
Sticky Bit липкий бит изначально предписывал ядру не выгружать завершившуюся программу из памяти сразу, а лишь спустя некоторое время, чтобы избежать постоянной загрузки с диска наиболее часто используемых программ, в настоящее время в разных ОС используется по разному ext2 Unix-like

Формирование имен файлов.

Файлом называется именованная часть жесткого диска или гибкой дискеты. Также файл – это логическое устройство, потенциальный источник или приемник информации. Длина каждого файла ограничивается только емкостью устройства внешней памяти компьютера.
Длинные имена файлов
Максимальная длина имени файла может составлять 255 символов, включая пробелы. В именах могут использоваться пробелы, символы
кириллицы и другие, запрещенные в DOS символы: / : . * ? " < >
Суммарная длина маршрута и имени файла не должна превышать 260 символов (имя диска- 2 символа + имя корневого каталога / - 1 символ
+ имя файла - как минимум 1 символ + разделительная точка -1символ = 5+255=260).
При создании файла ему присваивается 2 имени - длинное и короткое (по правилам DOS - в формате 8.3). Короткое имя формируется по следующим правилам:
1) из длинного имени удаляются пробелы и запрещенные в DOS символы. Для 8-буквенного имени используются первые 6 оставшихся
символов, к которым добавляется знак ~ и порядковый номер файла (среди файлов с одинаковыми начальными символами). хххххх~
2) для 3-х букв типа используются первые три символа после последней точки в длинном имени.
Например:
Длинное имя
Короткое имя
Microsoft Windows 95.bmp
Micros~1.bmp
Microsoft Office.tmp
Micros~2.tmp
Курсовая работа Иванова И.И..doc
Курсов~.doc
Универсальная кодировка Unicode отводит каждому символу 2 байта. Windows использует эту кодировку для хранения длинных имен файлов, т.о. длинное имя может потребовать до 500 байт (255 символов при максимальной длине). В DOS в системе FAT информация о файле
(имя, размер, дата и время создания) хранится в элементе каталога объемом 32 байта. В Windows информация о файле (короткое имя, размер, дата и время создания) хранится в обычном элементе каталога. Длинное имя и дата последнего обращения хранятся в элементах каталога, смежных с основным и помеченных особым образом. Т.о. один файл занимает 2 элемента каталога и более (21 в случае максимальной длины: 1 - обычный (DOS), другие - для длинного имени). Особенности:
1) увеличивается размер каталога, время доступа, вероятность фрагментирования;
2) корневой каталог дискеты содержит 224 элемента. Т.о. в корневом каталоге дискеты может находится около 10 файлов с именем
максимальной длины. Если все элементы заполнены, то выдается сообщение о нехватке памяти, нехватке свободного места на диске (даже
если на диске есть свободное место). Поэтому необходимо раскладывать файлы по папкам и не хранить их в корневом каталоге (кроме служебных).

Типы файлов

В различных операционных и/или файловых системах могут быть реализованы различные типы файлов; кроме того, реализация различных типов может различаться.

§ «Обыкновенный файл» - файл, позволяющий операции чтения, записи, перемещения внутри файла

§ Каталог (англ. directory - алфавитный справочник) или директория - файл, содержащий записи о входящих в него файлах. Каталоги могут содержать записи о других каталогах, образуя древовидную структуру.

§ Жёсткая ссылка (англ. hardlink , часто используется калька «хардлинк») - в общем случае, одна и та же область информации может иметь несколько имён. Такие имена называют жёсткими ссылками (хардлинками). После создания хардлинка сказать где «настоящий» файл, а где хардлинк невозможно, так как имена равноправны. Сама область данных существует до тех пор, пока существует хотя бы одно из имён. Хардлинки возможны только на одном физическом носителе.

К электронным носителям относят носители для однократной или многократной записи (обычно цифровой ) электрическим способом: CD-ROM, DVD-ROM, полупроводниковые (флеш-память и т. п.), дискеты.

Имеют значительное преимущество перед бумажными (листы, газеты, журналы) по объёму и удельной стоимости. Для хранения и предоставления оперативной (не долговременного хранения) информации - имеют подавляющее преимущество, также имеются значительные возможности по предоставлению И в удобном потребителю виде (форматирование, сортировка). Недостаток - малый размер экрана (или значительный вес) и хрупкость устройств считывания, зависимость от источников электропитания.

В настоящее время электронные носители активно вытесняют бумажные, во всех отраслях жизни, что приводит к значительному сбережению древесины. Минусом их является то, что для считывания И для каждого типа и формата носителя необходимо соответствующее ему устройство считывания.

[править]Устройства хранения

Основная статья: Запоминающее устройство

Носитель, в совокупности с механизмом для записи/считывания на него информации (устройством считывания , считывающим устройством ), называется устройством хранения информации (также - накопитель информации , если оно предусматривает дозапись поступающей к уже имеющейся). Эти устройства могут быть основаны на самых разных физических принципах записи.

В некоторых случаях (для гарантии считывания, при редкости носителя и т. п.) носитель информации доставляется потребителю вместе с запоминающими устройством для его считывания.

Корневой каталог

Каталог, прямо или косвенно включающий в себя все прочие каталоги и файлы файловой системы называется корневым. Он обозначается символом "/" (слэш).

Путь к файлу.

Для того чтобы найти файл в иерархической файловой структуре необходимо указать путь к файлу. В путь к файлу входят записываемые через разделитель "\" логическое имя диска и последовательность имен вложенных друг в друга каталогов, в последнем из которых находится данный нужный файл.

Например, путь к файлам на рисунке можно записать так.

1. Информацию можно подразделить по форме представления на 2 вида:

Дискретная форма представления информации - это последовательность символов, характеризующая прерывистую, изменяющуюся величину (количество дорожно-транспортных происшествий, количество тяжких преступлений и т.п.);

Аналоговая или непрерывная форма представления информации - это величина, характеризующая процесс, не имеющий перерывов или промежутков (температура тела человека, скорость автомобиля на определенном участке пути и т.п.).

2. По области возникновения можно выделить информацию:

Элементарную (механическую), которая отражает процессы, явления неодушевленной природы;

Биологическую, которая отражает процессы животного и растительного мира;

Социальную, которая отражает процессы человеческого общества.

3. По способу передачи и восприятия различают следующие виды информации:

Визуальную, передаваемую видимыми образами и символами;

Аудиальную, передаваемую звуками;

Тактильную, передаваемую ощущениями;

Органолептическую, передаваемую запахами и вкусами;

Машинную, выдаваемую и воспринимаемую средствами вычислительной техники.

4. Информацию, создаваемую и используемую человеком, по общественному назначению можно разбить на три вида:

Личную, предназначенную для конкретного человека;

Массовую, предназначенную для любого желающего ее пользоваться (общественно-политическая, научно-популярная и т.д.) ;

Специальную, предназначенную для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики.

5. По способам кодирования выделяют следующие типы информации:

Символьную, основанную на использовании символов - букв, цифр, знаков и т. д. Она является наиболее простой, но практически применяется только для передачи несложных сигналов о различных событиях. Примером может служить зеленый свет уличного светофора, который сообщает о возможности начала движения пешеходам или водителям автотранспорта.

Текстовую, основанную на использовании комбинаций символов. Здесь так же, как и в предыдущей форме, используются символы: буквы, цифры, математические знаки. Однако информация заложена не только в этих символах, но и в их сочетании, порядке следования. Так, слова КОТ и ТОК имеют одинаковые буквы, но содержат различную информацию. Благодаря взаимосвязи символов и отображению речи человека текстовая информация чрезвычайно удобна и широко используется в деятельности человека: книги, брошюры, журналы, различного рода документы, аудиозаписи кодируются в текстовой форме.

Графическую, основанную на использовании произвольного сочетания в пространстве графических примитивов. К этой форме относятся фотографии, схемы, чертежи, рисунки, играющие большое значение в деятельности человек.

3. Единицы измерения информации

Единицы измеренияинформации служат для измерения объёмаинформации- величины, исчисляемойлогарифмически. Это означает, что когда несколько объектов рассматриваются как один, количество возможных состоянийперемножается, а количество информации -складывается. Не важно, идёт речь ослучайных величинахв математике,регистрахцифровой памяти в технике или дажеквантовых системахв физике.

Чаще всего измерение информации касается объёма компьютерной памятии объёма данных, передаваемых поцифровым каналам связи.

Впервые объективный подход к измерению информации был предложен американским инженером Р. Хартли в 1928 году, затем в 1948 году обобщен американским учёным К. Шенноном. Хартли рассматривал процесс получения информации как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Вероятность - численная мера достоверности случайного события, которая при большом числе испытаний близка к отношению числа случаев, когда событие осуществилось с положительным исходом, к общему числу случаев. Два события называют равновероятными, если их вероятности совпадают.

Примеры равновероятных событий

1.при бросании монеты: «выпала решка», «выпал орел»; 2. на странице книги: «количество букв чётное», «количество букв нечётное»; 3. при бросании игральной кости: «выпала цифра 1»,«выпала цифра 2»,«выпала цифра 3»,«выпала цифра 4»,«выпала цифра 5»,«выпала цифра 6».

Неравновероятные события

Определим, являются ли равновероятными сообщения «первой из дверей здания выйдет женщина» и «первым из дверей здания выйдет мужчина». Однозначно ответить на этот вопрос нельзя. Во-первых, как известно количество мужчин и женщин неодинаково. Во-вторых, все зависит от того, о каком именно здании идет речь. Если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Логарифм числа a по основанию b (log b a) равен показателю степени, в которую надо возвести число b, чтобы получить число a. Широкое применение в информатике получили логарифмы по основанию два, которые называют двоичными логарифмами.

Формула Хартли:

I = log 2 N

Шеннон предложил другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона:

I=P1log21/P1+P2log21/P2+…+PNlog21/PN,

где pi – вероятность i-го сообщения

Поскольку каждый регистр арифметического устройства и каждая ячейка памяти состоит из однородных элементов, а каждый элемент может находиться в одном из двух устойчивых состояний (которые можно отождествить с нулем и единицей), то К. Шенноном была введена единица измерения информации – бит.

Бит – слишком мелкая единица измерения. На практике чаще применяется более крупная единица – байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8).

Широко используются также еще более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт,

1 Гигабайт (Гбайт) = 1024 Мбайт.

В последнее время в связи с увеличением объемов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тбайт) = 1024 Гбайт,

1 Петабайт (Пбайт) = 1024 Тбайт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.