Візуальне мислення. Обробка інформації - перетворення інформації з одного виду в

Білет №1. Концепція інформації. Інформаційні процеси та системи. Інформаційні ресурсита технології.

Інформація— відомості про об'єкти та явища навколишнього середовища, їх параметри, властивості та стан, які сприймають інформаційні системи (живі організми, керуючі машини та ін.) у процесі життєдіяльності та роботи.В інформатиці під інформацією розуміється повідомлення, що знижує ступінь невизначеності знань про стан предметів або явищ і допомагає вирішити поставлене завдання.

Інформація може існувати у вигляді:

1. текстів, малюнків, креслень, фотографій;

2. світлових чи звукових сигналів;

3. радіохвиль;

4. електричних та нервових імпульсів;

5. магнітних записів;

6. жестів та міміки;

7. запахів та смакових відчуттів;

8. хромосом, за допомогою яких передаються у спадок ознаки та властивості організмів, і т.д.

Інформаційні процеси -процеси, пов'язані з пошуком, зберіганням, передачею, обробкою та використанням інформації.

1. безпосереднєспостереження;

2. спілкування з фахівцями з питання, що вас цікавить;

3. читання відповідної літератури;

4. перегляд відео, телепрограм;

5. прослуховуваннярадіопередач, аудіокасет;

6. робота у бібліотеках та архівах;

2. Збір та зберігання.
Зберігання інформації -
це спосіб поширення інформації у просторі та часі.
Спосіб зберігання інформації залежить від її носія
(Книга - бібліотека, картина - музей, фотографія - альбом).
ЕОМ призначена для
компактного зберіганняінформації з можливістюшвидкого доступудо неї.
Інформаційна система -
це сховище інформації, забезпечене процедурами введення, пошуку та розміщення та видачі інформації. Наявність таких процедур - головна особливість інформаційних систем, що відрізняють їх від простих накопичень інформаційних матеріалів.Наприклад, особиста бібліотека, в якій може орієнтуватися лише її власник, інформаційною системою не є. У публічних бібліотеках порядок розміщення книг завжди суворо визначений. Завдяки йому пошук і видача книг, а також розміщення нових надходжень є стандартними,формалізованіпроцедури.

3. Передача.
У процесі передачі інформації обов'язково беруть участь
джерело та приймач інформації: перший передає інформацію, другий її одержує. Між ними діє канал передачі інформації.канал зв'язку.
Канал зв'язку -
сукупність технічних пристроїв, що забезпечують передачу сигналу джерела до одержувача.
Кодуючий пристрій -
пристрій, призначений перетворення вихідного повідомлення джерела до виду, зручному передачі.
Декодуючий пристрій -
пристрій для перетворення кодованого повідомлення у вихідне.
Діяльність людей завжди пов'язана із передачею інформації.

4. Обробка.
Обробка інформації -
перетворення інформації з одного виду на інший, що здійснюється за суворими формальними правилами. Обробка інформації зпринципу "чорної скриньки" -процес, в якому користувачеві важлива і необхідна лише вхідна та вихідна інформація, але правила, за якими відбувається перетворення, його не цікавлять і не беруться до уваги.

1. Достовірність, повнота, об'єктивність отриманої інформації забезпечать можливість прийняти правильне рішення.

2. Ваша здатність ясно і доступно викладати інформацію стане в нагоді у спілкуванні з оточуючими.

3. Вміння спілкуватися, тобто обмінюватися інформацією, стає одним з головних умінь людини у світі.
Комп'ютерна грамотністьпередбачає:

4. Знання призначення та користувацьких характеристик основних пристроїв комп'ютера;

5. Знання основних видів програмного забезпечення та типів інтерфейсів користувача;

6. Вміння здійснювати пошук, зберігання, обробку текстової, графічної, числової інформації за допомогою програмного забезпечення.

1. доступудо інформації особам, які не мають відповідного дозволу (несанкціонований, нелегальний доступ);

2. ненавмисного чи недозволеного використання, зміниабо руйнуванняінформації.

Під захистом інформації, у більш широкому розумінні, розуміють комплекс організаційних, правових та технічних заходівщодо запобігання загроз інформаційній безпеці та усунення їх наслідків.

Інформаційні ресурси та технології.

Інформаційні ресурси — це ідеї людства та вказівки щодо їх реалізації, накопичені у формі, що дозволяє їх відтворення.

Інформаційні ресурси (на відміну від інших видів ресурсів — трудових, енергетичних, мінеральних тощо.) швидше ростутьчим більше їх витрачають.

Інформаційна технологія - це сукупність методів та пристроїв, які використовуються людьми для обробки інформації.

В даний час термін "інформаційна технологія"Використовується у зв'язку з використанням комп'ютерів на обробку інформації. Інформаційні технологіїохоплюють всю обчислювальну техніку та техніку зв'язку і, частково, - побутову електроніку, телебачення та радіомовлення.

Вони знаходять застосування в промисловості, торгівлі, управлінні, банківській системі, освіті, охороні здоров'я, медицині та науці, транспорті та зв'язку, сільському господарстві, системі соціального забезпечення, служать підмогою людям різних професій та домогосподаркам.

Народи розвинених країн усвідомлюють, що вдосконалення інформаційних технологій є найважливішим, хоча дорогим і важким завданням.

В даний час створення великомасштабних інформаційно-технологічних систем є економічно можливим, і це зумовлює появу національних дослідницьких та освітніх програм, покликаних стимулювати їхню розробку.

Питання 1 (Поняття інформації. Інформаційні процеси та системи. Інформаційні ресурси та технології.)

Термін інформація походить від латинського слова information що означає «відомості, роз'яснення, виклад».

інформацією називають будь-які дані чи відомості, які будь-кого цікавлять.

У техніці – інформація – відомості про об'єкти та явища навколишнього середовища, їх параметри та стан, які зменшують наявний про них ступінь невизначеності, неповноти знань.

Характерними рисами інформаціїє такі:

  1. Це найбільш важливий ресурс сучасного виробництва: він знижує потребу у землі, праці, капіталі, зменшує витрати сировини та енергії.
  2. Викликає до життя нові виробництва.
  3. Є товаром, причому продавець інформації її втрачає після продажу.
  4. Надає додаткової цінності іншим ресурсам, зокрема, трудовим. Справді, працівник із вищою освітою цінується більше, ніж із середньою.
  5. Інформація може накопичуватись.

Інформаційні процеси - це процеси, пов'язані з отриманням, зберіганням, обробкою та передачею інформації (тобто дії, що виконуються з інформацією). Тобто. це процеси, у яких змінюється зміст інформації чи форма її представлення.

Інформаційні процеси

  1. Прийом (читання книги, газети або перегляд та прослуховування телевізора (радіо), підготовка до іспиту);
  2. Зберігання (ми пам'ятаємо, що ми прочитали з книги);
  3. Передача (Трансляція) (ми можемо переказати зміст книги своєму знайомому);
  4. Обробка (прочитавши книгу, ми можемо обробити отриману інформацію і зробити деякі висновки);
  5. Використання (Отримавши інформацію про те, що дощ, ми взяли парасольку).

    1. Зародження даних - формування первинних повідомлень, які фіксують результати певних операцій, властивості об'єктів та суб'єктів управління, параметри процесів, зміст нормативних та юридичних актів тощо.

    2. Накопичення та систематизація даних . - Організація такого їх розміщення, яке забезпечувало б швидкий пошук та відбір потрібних відомостей, методичне оновлення даних, захист їх від спотворень, втрати, деформування цілісності та ін.

    4. Відображення даних - уявлення в формі, придатної сприйняття людиною. Насамперед - це висновок на друк, тобто створення документів на про твердих (паперових) носіях. Широко використовують побудову графічних ілюстративних матеріалів (графіків, діаграм) та формування звукових сигналів.

    Інформаційні ресурси – інформація, що використовується на виробництві, у техніці та управлінні суспільством (науково-технічні знання, твори літератури та мистецтва, безліч інформації зафіксованої у будь-якій формі на будь-якому носії).

    Інформаційні ресурси у масштабах країни – національні інформаційні ресурси. Інформаційні ресурси країни визначають її науково-технічний потенціал (НТП), науковий потенціал та економічну та стратегічну міць.

    Інформаційний ресурс не зникне, вони накопичуються та видозмінюються.


    Під Інформаційною технологією розуміють сукупність методів, виробничих та програмно-технологічних засобів, об'єднаних у технологічний ланцюжок, що забезпечує збирання, зберігання, обробку, виведення та поширення інформації.

«Інформація 10 клас» - Вроджені інформаційні методи засновані на системі почуттів сприйняття суб'єкта та на мисленні. Зміст: Сприйняття (збір). Штучні інформаційні методи бувають апаратними та програмними. Зберігання. Сканер як пристрій сприйняття інформації. Інформаційні процеси у техніці. Отримані методи є результатом навчання або адаптації.

«Обробка овочів» - Селера. Підготовка помідор, болгарського перцю для фарширування. Кружочки - так ріжуть овочі циліндричної форми, на кшталт моркви. 4 * 4 * 4 (середній брюнуаз). Форми нарізування овочів. Форми нарізки моркви. Пастернак. Ревінь. Фігурні форми нарізки картоплі. Обробка коренеплодів. Промивають Відрізають плодоніжку Відрізають шкірку та видаляють насіння.

«Обробка графічної інформації» - Робочі та фонові кольори. Приклади графічних редакторів Заголовок вікна. Пуск/Програми/Стандартні/Paint Призначення. Вигляд вікна графічного редактора Paint. Рядок меню. Палітра. Визначення. Графічний редактор- Прикладна програма обробки графічної інформації. Використання комп'ютерної графіки.

«Інформація та її обробка» - Розглянути, як можна обробити інформацію різних видів. Комп'ютер. Завдання в робочому зошиті: Гра «Згадай поняття». Кодування. Наприклад: Нині урок інформатики. Диск. 2) Обробка тексту – зміна змісту тексту. Знайди суми пар чисел за зразком. Навчитися пояснювати зміст обробки інформації.

«Технологія обробки паперу» - Отриманий таким чином папір буде своєрідним, але не надто красивим. Папір та історія розвитку паперових ремесел. Аплікація. Спочатку приклеюйте квадратики по контуру малюнка, і потім заповнюйте фон. Квітці - квітка спліта вінок. Саморобний папір. Народна назва прикрас, вирізаних з паперу в Україні - витинанки.

"Цифрова обробка сигналів" - Основні розділи ЦГЗ. Цифрова обробкасигналів. cos. План лекції. У.М. Сіберт. Визначення. arctan. Інформаційні джерела. Напрями розвитку ЦГЗ. Етапи побудови систем ЦГЗ. Вступні відомості з комплексної арифметики. Типова блок-схема пристрою ЦГЗ. Апаратна та програмна реалізація. sin.

Концепція інформації. Властивості інформації. Інформаційні процеси: отримання, передача, перетворення та зберігання інформації

Інформація- Одне з основних понять науки. Поряд із такими поняттями,як речовина, енергія, простір та час воно становить основу сучасної наукової картини світу. Його не можна визначити через простіші поняття.

Термін інформаціяпоходить від латинського слова informatio, що означає - роз'яснення, повідомлення, обізнаність.

Під інформацією в побуті (життєвий аспект) розуміють відомості про навколишній світ і процеси, що протікають у ньому, сприймані людиною або спеціальними пристроями.

Під інформацією в техніці розуміють повідомлення, які передаються у формі знаків або сигналів.

Під інформацією теорії інформації розуміють не будь-які відомості, а лише ті які, знімають повністю або зменшують існуючу невизначеність. За визначенням К. Шеннона інформація – це знята невизначеність.

Під інформацією в кібернетиці, за визначенням М. Вінера розуміють частину знань, що використовується для орієнтування, активного дії, управління, тобто. з метою збереження, вдосконалення, розвитку системи.

Під інформацією в семантичній теорії (сенс повідомлення) розуміють відомості, що мають новизну.

Інформація - це відображення зовнішнього світу за допомогою символів та сигналів.

Властивості інформації , тобто. її якісні ознаки.

Об'єктивність. Інформація об'єктивна, якщо вона залежить від чийого – чи думки.

Достовірність. Інформація є достовірною, якщо вона відображає справжній стан справ.

Повнота. Інформацію можна вважати повною, якщо її достатньо для розуміння та ухвалення рішення.

Актуальність- Важливість, суттєвість для теперішнього часу.

Адекватність– певний рівень відповідності створюваного з допомогою отриманої інформації образу реальному об'єкту, процесу, явищу.

Інформаційні процеси

Обмін, зберігання та обробка інформації притаманні живій природі, людині, суспільству, технічним пристроям. У системах різної природи події з інформацією: обмін, зберігання, обробка - однакові. Ці дії називають ІНФОРМАЦІЙНИМИ ПРОЦЕСАМИ.

Розглянемо докладніше різні види інформаційних процесів між автоматом та автоматом (технічними пристроями).

Обмін інформацією

Передачу та прийом інформації називають обміном інформації. Передача інформації між автоматами виконується з використанням технічних засобівзв'язку. Ретрансляційна вежа передає інформацію, яку приймає блок прийому телевізора. Радіостанція передає інформацію, яку приймає блок прийому радіоприймача. Відеомагнітофон передає інформацію з відеокасети на екран.

При обміні інформацією потрібні джерело інформації та приймач інформації. Інформація, що передається від джерела, досягає приймача за допомогою послідовності сигналів, яка називається ПОВІДОМЛЕННЯМ. Сигнали можуть бути звуковими, електричними, електромагнітними тощо. Інформація може надходити безперервно, а може, і дискретно, тобто у вигляді послідовності сигналів, відокремлених один від одного тимчасовими або просторовими проміжками.

Перетворення інформації

Обробка інформації - перетворення інформації з одного виду в інший, що здійснюється за строгими формальними правилами.

Обробка інформації за принципом «чорної скриньки» - процес, у якому користувачеві важлива і необхідна лише вхідна та вихідна інформація, але правила, за якими відбувається перетворення, його не цікавлять і не беруться до уваги.

Можливість автоматизованої обробки інформатизації полягає в тому, що обробка інформації не передбачає її осмислення.

Зберігання інформації

Інформація для магнітофона, відеомагнітофона, кіноапарата зберігається на спеціальних пристроях: аудіокасетах, відеокасетах, кінострічках. Пристрій, призначений для зберігання інформації називають НОСІЄМ інформації. Носій може бути різної природи: механічний, магнітний, електричний. Носії інформації розрізняються формою подання інформації, за принципом зчитування, за типами матеріалу.

Інформація запам'ятовується як сигналів чи символів. З допомогою мікрофона та інших пристроїв магнітофона звукова інформація записується магнітну стрічку, тобто. на магнітній стрічці зберігається інформація. За допомогою магнітної головки магнітофона інформація зчитується з магнітної стрічки. Інформація ЗАПИСУЄТЬСЯ на носій за допомогою зміни фізичних, хімічних або механічних властивостей навколишнього середовища. Запис та зчитування інформації здійснюється в результаті фізичного впливу з носієм інформації записуючих та зчитувальних пристроїв.

Інформація. Передача інформації

Інформація передається у формі повідомленьвід деякого джерелаінформації до її приймачевіза допомогою каналу зв'язкуміж ними. Джерело посилає повідомлення, що передається, яке кодується в сигнал, що передається. Цей сигнал надсилається по каналу зв'язку. В результаті в приймачі з'являється сигнал, що приймається, Котрий декодуєтьсяі стає повідомлення, що приймається.

Приклади:

  1. Повідомлення, містить інформацію про прогноз погоди, передається приймачеві(телеглядачеві) від джерела– спеціаліста-метеоролога за допомогою каналу зв'язку- Телевізійної передавальної апаратури та телевізора.
  2. Жива істота своїми органами почуттів (око, вухо, шкіра, мова тощо) сприймає інформацію із зовнішнього світу, переробляє їїу певну послідовність нервових імпульсів, передаєімпульси по нервових волокнах, зберігаєу пам'яті у вигляді стану нейронних структур мозку, відтворюєу вигляді звукових сигналів, рухів тощо, використовуєу процесі своєї життєдіяльності.

Передача інформації каналами зв'язку часто супроводжується впливом перешкод, викликають спотворення та втрату інформації.

Властивості інформації

Властивості інформації:

Інформація достовірна, якщо вона відображає справжній стан справ . Недостовірна інформація може призвести до неправильного розуміння чи прийняття неправильних рішень.

Достовірна інформація з часом може стати недостовірною , так як вона має властивість старіти, тобто перестає відбивати справжній стан справ.

Інформація повна, якщо її достатньо для розуміння та прийняття рішень . Як неповна, так і надмірна інформація стримує прийняття рішень або може спричинити помилки.

Точність інформації визначається мірою її близькості до реального стану об'єкта, процесу, явища тощо.

Цінність інформації залежить від того, наскільки вона важлива для вирішення задачі , а також від того, наскільки надалі вона знайде застосування у будь-яких видах діяльності людини.

Тільки своєчасно отримана інформація може принести очікувану користь. Однаково небажані як передчасне подання інформації(коли вона ще може бути засвоєна), і її затримка.

Якщо цінна та своєчасна інформація виражена незрозумілим чином , вона може стати марною.

Інформація стає зрозумілою, якщо вона виражена мовою, якою говорять ті, кому призначена ця інформація.

Інформація повинна бути подана в доступній (за рівнем сприйняття) формою. Тому одні й самі питання по-різному викладаються у шкільних підручниках і наукових виданнях.

Інформацію з одного і того ж питання можна викласти коротко(стисло, без несуттєвих деталей) або просторово(Докладно, багатослівно). Короткість інформації необхідна у довідниках, енциклопедіях, підручниках, усіляких інструкціях.

Обробка інформації

Обробка інформації отримання одних інформаційних об'єктів з інших об'єктів шляхом виконання деяких алгоритмів

Обробка є однією з основних операцій, що виконуються над інформацією, та головним засобом збільшення обсягу та різноманітності інформації.

Засоби обробки інформації це всілякі пристрої та системи, створені людством, і в першу чергу комп'ютер Універсальна машина для обробки інформації.

p align="justify"> Комп'ютери обробляють інформацію шляхом виконання деяких алгоритмів.

Живі організми та рослини обробляють інформацію за допомогою своїх органів та систем.

Інформація - це відомості про що-небудь

Поняття та види інформації, передача та обробка, пошук та зберігання інформації

Інформація - це визначення

Інформація - цебудь-які відомості, що приймаються та передаються, що зберігаються різними джерелами. - це вся сукупність відомостей про навколишній світ, про всілякі процеси, що протікають у ньому, які можуть бути сприйняті живими організмами, електронними машинами та іншими інформаційними системами.

- цеЗначні відомості про що-небудь, коли форма їх уявлення також є інформацією, тобто має функцію форматування відповідно до своєї природи.

Інформація - цевсе те, чим можуть бути доповнені наші знання та припущення.

Інформація - цевідомості про щось, незалежно від форми їх уявлення.

Інформація - цепсихічний будь-якого психофізичного організму, вироблений ним під час використання будь-якого засобу, званого засобом інформації.

Інформація - цевідомості, що сприймаються людиною та (або) спец. пристроями як відображення фактів матеріального чи духовного світу в процесікомунікації.

Інформація - цедані, організовані таким чином, що мають сенс для людини, яка має з ними справу.

Інформація - цезначення, що вкладається людиною в дані на підставі відомих угод, що використовуються для їх подання.

Інформація - цевідомості, роз'яснення, виклад.

Інформація - цебудь-які дані чи відомості, які будь-кого цікавлять.

Інформація - цевідомості про об'єкти та явища навколишнього середовища, їх параметри, властивості та стан, які сприймають інформаційні системи(живі організми, керуючі машини та ін.) процесіжиттєдіяльності та роботи.

Те саме інформаційне повідомлення (стаття в газеті, оголошення, лист, телеграма, довідка, розповідь, креслення, радіопередача тощо) може містити різну кількість інформації для різних людей — залежно від їх попередніх знань, від рівня розуміння цього повідомлення та інтересу до нього.

У випадках, коли говорять про автоматизовану роботіз інформацією у вигляді будь-яких технічних пристроїв, цікавляться не змістом повідомлення, а тим, скільки символів це повідомлення містить.

Інформація (Information) - це

Стосовно до комп'ютерної обробкиданих під інформацією розуміють деяку послідовність символічних позначень (літер, цифр, закодованих графічних образів і звуків тощо), що несе смислове навантаження і представлене в зрозумілому комп'ютерувигляді. Кожен новий символ у такій послідовності символів збільшує інформаційний обсяг повідомлення.

Нині немає єдиного визначення інформації як наукового терміна. З погляду різних галузей знання дане поняттяописується своїм специфічним набором ознак. Наприклад, поняття «інформація» є базовим у курсі інформатики, і неможливо дати його визначення через інші, більш «прості» поняття (так само, в геометрії, наприклад, неможливо виразити зміст базових понять"точка", "пряма", "площина" через простіші поняття).

p align="justify"> Зміст основних, базових понять в будь-якій науці має бути пояснено на прикладах або виявлено шляхом їх зіставлення зі змістом інших понять. Що стосується поняттям «інформація» проблема визначення ще складніша, оскільки є загальнонауковим поняттям. Дане поняття використовується в різних науках (інформатиці, кібернетиці, біології, фізиці та ін.), причому у кожній науці поняття «інформація» пов'язане з різними системами понять.

Поняття інформації

У сучасній науці розглядаються два види інформації:

Об'єктивна (первинна) інформація — властивість матеріальних об'єктів і явищ (процесів) породжувати різноманіття станів, які у вигляді взаємодій (фундаментальні взаємодії) передаються іншим об'єктам і зберігаються у тому структурі.

Суб'єктивна (семантична, смислова, вторинна) інформація - смисловий зміст об'єктивної інформації про об'єкти та процеси матеріального світу, сформований свідомістю людини за допомогою смислових образів (слів, образів та відчуттів) та зафіксований на якомусь матеріальному носії.

У побутовому сенсі інформація - відомості про навколишній світ і процеси, що протікають в ньому, сприймаються людиною або спеціальним пристроєм.

Нині немає єдиного визначення інформації як наукового терміна. З погляду різних галузей знання, це поняття описується своїм специфічним набором ознак. Відповідно до концепції До. Шеннона, інформація — це знята невизначеність, тобто. Відомості, які мають зняти тією чи іншою мірою існуючу у набувача до отримання невизначеності, розширити його розуміння об'єкта корисними відомостями.

З точки зору Грегорі Бетона елементарна одиниця інформації це "небайдужа відмінність" або дієва відмінність для якоїсь більшої системи, що сприймає. Ті відмінності, які сприймаються, він називає " потенційними " , а сприйняті - " дієвими " . "Інформація складається з небайдужих відмінностей» (с) "Будь-яке сприйняття інформації з необхідністю є отриманням відомостей про відмінність». З погляду інформатики, інформація має низку фундаментальних властивостей: новизна, актуальність, достовірність, об'єктивність, повнота, цінність та інших. Аналізом інформації займається, передусім, наука логіка. Слово «інформація» походить від латинського слова informatio, що у перекладі означає зведення, роз'яснення, ознайомлення. Поняття інформації розглядалося ще античними філософами.

Інформація (Information) - це

До початку промислової революції визначення суті інформації залишалося прерогативою переважно філософів. Далі розглядати питання теорії інформації стала на той час наука кібернетика.

Іноді для того, щоб осягнути суть якогось поняття, корисно аналізувати значення слова, яким це поняття позначається. Прояснення внутрішньої форми слова та вивчення історії його вживання може пролити несподіване світло на його зміст, що затьмарюється звичним "технологічним" використанням цього слова та сучасними конотаціями.

Слово інформація увійшло російську мову в Петровську епоху. Вперше фіксується в "Духовному регламенті" 1721 р. у значенні "подання, поняття про що-л.". (У європейських мовах воно закріпилося раніше – близько XIV ст.)

Інформація (Information) - це

Виходячи з цієї етимології, інформацією можна вважати будь-яку значущу зміну форми або, іншими словами, будь-які матеріально зафіксовані сліди, утворені взаємодією предметів або сил і які розуміються. Інформація, таким чином, це перетворена форма енергії. Носієм інформації є знак, а способом її існування – тлумачення: виявлення значення знака чи послідовності знаків.

Значенням може бути реконструйована по знаку подія, що спричинило його виникнення (у разі "природних" і мимовільних знаків, таких, як сліди, докази та ін.), або повідомлення (у разі умовних знаків, властивих сфері мови). Саме другий різновид знаків становить тіло людської культури, яка, згідно з одним з визначень, є "сукупністю інформації, що не спадково передається".

Інформація (Information) - це

Повідомлення можуть містити інформацію про факти або інтерпретацію фактів (від лат. interpretatio, тлумачення, переклад).

Живе істота отримує інформацію з допомогою органів чуття, і навіть роздуми чи інтуїції. Обмін інформацією між суб'єктами є спілкування чи комунікація (від лат. communicatio, повідомлення, передача, похідне своєю чергою від лат. communico, робити спільним, повідомляти, розмовляти, з'єднувати).

З практичної точки зору інформація завжди подається у вигляді повідомлення. Інформаційне повідомлення пов'язане з джерелом повідомлення, одержувачем повідомлення та каналом зв'язку.

Повертаючись до латинської етимології слова інформація, спробуємо відповісти питанням, чому саме надається тут форма.

Вочевидь, що, по-перше, певному сенсу, який, будучи спочатку безформним і невираженим, існує лише потенційно і має бути "побудований", щоб стати сприйманим і переданим.

По-друге, людському розуму, який виховується мислити структурно та ясно. По-третє, суспільству, яке саме завдяки тому, що його члени поділяють ці смисли та спільно їх використовують, набуває єдності та функціональності.

Інформація (Information) - це

інформація як виражений розумний сенс є знання, яке може зберігатися, передаватися і бути основою породження іншого знання. Форми консервації знання (історична пам'ять) різноманітні: від міфів, літописів та пірамід до бібліотек, музеїв та комп'ютерних баз даних.

Інформація - відомості про навколишній світ, про процеси, що протікають в ньому, які сприймають живі організми, керуючімашини та інші інформаційні системи.

Слово "інформація" латинське. За довге життя його значення зазнавало еволюції, то розширюючи, то гранично звужуючи свої межі. Спочатку під словом "інформація" мали на увазі: "подання", "поняття", потім-"відомості", "передача повідомлень".

В останні роки вчені вирішили, що звичайне (усі прийняте) значення слова «інформація» надто еластично, розпливчасто, і дали йому таке значення: «міра визначеності у повідомленні».

Інформація (Information) - це

Теорію інформації викликали життя потреби практики. Її виникнення пов'язують із роботоюКлода Шеннона «Математична теорія зв'язку», виданої 1946г. Основи теорії інформації спираються на результати, отримані багатьма вченими. До другої половини XX століття земна куля гула від інформації, що передається, що біжить по телефонних і телеграфних кабелях і радіоканалах. Пізніше з'явилися електронні обчислювальні машини – переробники інформації. А для того часу основним завданням теорії інформації було насамперед підвищення ефективності функціонування систем зв'язку. Складність при проектуванні та експлуатації засобів, систем та каналів зв'язку в тому, що конструктору та інженеру недостатньо вирішити завдання з фізичних та енергетичних позицій. З цих точок зору система може бути найдосконалішою та економічною. Але важливо ще при створенні передавальних систем звернути увагу на те, яка кількість інформації пройде через цю систему. Адже інформацію можна виміряти кількісно, ​​підрахувати. І чинять при подібних обчисленнях звичайнісіньким шляхом: абстрагуються від сенсу повідомлення, як відмовляються від конкретності в звичних всім нам арифметичних діях (як від складання двох яблук і трьох яблук переходять до складання чисел взагалі: 2+3).

Вчені заявили, що вони «цілком ігнорували людську оцінку інформації». Послідовному ряду зі 100 літер, наприклад, вони приписують певне значення інформації, не звертаючи уваги, чи ця інформація має сенс і чи має, у свою чергу, сенс практичне застосування. Кількісний підхід – найбільш розроблена гілка теорії інформації. Відповідно до цього визначення сукупність 100 літер - фраза зі 100 літер із газети, п'єси Шекспіра або теореми Ейнштейна - має в точності однакову кількість інформації.

Таке визначення кількості інформації є надзвичайно корисним і практичним. Воно точно відповідає завданню інженера зв'язку, який повинен передати всю інформацію, що міститься в поданій телеграмі, незалежно від цінності цієї інформації для адресата. Канал зв'язку бездушний. Передавальної системи важливо одне: передати потрібну кількість інформації за визначений час. Як же обчислити кількість інформації у конкретному повідомленні?

Інформація (Information) - це

Оцінка кількості інформації ґрунтується на законах теорії ймовірностей, точніше, визначається через ймовірностіподій. Це зрозуміло. Повідомлення має цінність, несе інформацію лише тоді, коли ми дізнаємося з нього про результат події, що має випадковий характер, коли вона певною мірою несподівано. Адже повідомлення про вже відоме жодної інформації не містить. Тобто. якщо вам, припустимо, хтось зателефонує по телефону і скаже: «Вдень буває світло, а вночі темно», то таке повідомлення вас здивує лише безглуздістю висловлювання очевидного та всім відомого, а не новиною, яку воно містить. Інша річ, наприклад, результат забігу на стрибках. Хто прийде першим? Вихід тут важко передбачити. Чим більше подія, що цікавить нас, має випадкових результатів, тим цінніше повідомлення про його результат, тим більше інформації. Повідомлення про подію, яка має лише два однаково можливі результати, містить одну одиницю інформації, яку називають бітом. Вибір одиниці інформації не випадковий. Він пов'язаний із найбільш поширеним двійковим способом її кодування при передачі та обробці. Спробуємо хоча б у спрощеному вигляді уявити собі той загальний принципкількісної оцінки інформації, що є наріжним каменем всієї теорії інформації.

Ми вже знаємо, що кількість інформації залежить від ймовірностейтих чи інших наслідків події. Якщо подія, як кажуть вчені, має два рівноймовірні результати, це означає, що кожного результату дорівнює 1/2. Такою є ймовірність випадання «орла» або «решки» при киданні монети. Якщо подія має три рівноймовірні результати, то ймовірність кожного дорівнює 1/3. Зауважте, сума ймовірностей всіх результатів завжди дорівнює одиниці: адже якийсь із усіх можливих результатів обов'язково настане. Подія, як ви розумієте, може мати і нерівноймовірні результати. Так, при футбольному матчі між сильною та слабкою командами ймовірність перемоги сильної команди велика – наприклад, 4/5. нічиєї набагато менше, наприклад 3/20. Імовірність поразки дуже мала.

Виходить, що кількість інформації – це міра зменшення невизначеності певної ситуації. Різні кількості інформації передаються каналами зв'язку, і кількість інформації, що проходить через канал, не може бути більше його пропускну здатність. А її визначають за тим, скільки інформації проходить тут за одиницю часу. Один із героїв роману Жюля Верна «Таємничий острів», журналіст Гедеон Спіллет, передавав по телефонного апаратурозділ із Біблії, щоб його конкуренти не могли скористатися телефонним зв'язком. І тут канал був завантажений повністю, а кількість інформації дорівнювало нулю, бо абоненту передавалися відомі йому відомості. Отже, канал працював вхолосту, пропустивши певну кількість імпульсів, нічим їх не навантаживши. Тим більше що більше інформації несе кожен із певного числа імпульсів, тим повніше використовується пропускна здатність каналу. Тому потрібно розумно кодувати інформацію, знайти економну, скупу мову передачі повідомлень.

Інформацію «просіюють» ретельно. У телеграфі літери, що часто зустрічаються, поєднання літер, навіть цілі фрази зображують більш коротким набором нулів і одиниць, а ті, що зустрічаються рідше, - довшим. У випадку, коли зменшують довжину кодового слова для символів, що часто зустрічаються, і збільшують для рідко зустрічаються, говорять про ефективне кодування інформації. Але на практиці досить часто трапляється, що код, що виник у результаті найретельнішого «просіювання», код зручний і економний, може спотворити повідомлення через перешкоди, які завжди, на жаль, бувають у каналах зв'язку: спотворення звуку в телефоні, атмосферні перешкоди , спотворення або затемнення зображення в телебаченні, помилки при передачі в телеграфі. Ці перешкоди, або, як їх називають фахівці, шуми обрушуються на інформацію. А від цього бувають найнеймовірніші і, природно, неприємні несподіванки.

Тому підвищення надійності передачі та обробці інформації доводиться запроваджувати зайві символи - своєрідну захист від спотворень. Вони – ці зайві символи – не несуть дійсного змісту у повідомленні, вони надмірні. З точки зору теорії інформації все те, що робить мову барвистим, гнучким, багатим на відтінки, багатоплановим, багатозначним, - надмірність. Як надмірно з таких позицій листа Тетяни до Онєгіна! Скільки в ньому інформаційних надмірностей для короткого та всім зрозумілого повідомлення «Я вас люблю»! І як інформаційно точні мальовані позначення, зрозумілі всім і кожному, хто входить сьогодні в метро, ​​де замість слів та фраз оголошень висять лаконічні символьні знаки, що вказують: Вхід, Вихід.

У зв'язку з цим корисно згадати анекдот, розказаний свого часу знаменитим американським ученим Бенджаменом Франкліном, про капелюшника, який запросив своїх друзів для обговорення проекту вивіски. Передбачалося намалювати на вивісці капелюх і написати: «Джон Томпсон, капелюшник, робить і продає. Один із друзів помітив, що слова «за готівку гроші» є зайвими - таке нагадування буде образливим для покупця. Інший знайшов також зайвим слово «продає», оскільки зрозуміло, що капелюшник продає капелюхи, а не роздає їх задарма. Третьому здалося, що слова «капелюшник» і «робить капелюхи» є непотрібною тавтологією, і останні слова були викинуті. Четвертий запропонував викинути і слово «капелюшник» - намальований капелюх ясно говорить, хто такий Джон Томпсон. Нарешті, п'ятий запевняв, що для покупцяабсолютно байдуже, чи буде капелюшник називатися Джоном Томпсоном чи інакше, і запропонував обійтися без цієї вказівки. Отже, врешті-решт на вивісці не залишилося нічого, крім капелюха. Звичайно, якби люди користувалися тільки такого роду кодами, без надмірності в повідомленнях, то всі «інформаційні форми» – книги, доповіді, статті – були б гранично короткими. Але програли б у дохідливості та красі.

Інформацію можна розділити на види за різними критеріями: за істинністю:істинна та хибна;

за способом сприйняття:

Візуальна – сприймається органами зору;

Аудіальна – сприймається органами слуху;

Тактильна – сприймається тактильними рецепторами;

Нюхальна - сприймається нюховими рецепторами;

Смакова - сприймається смаковими рецепторами.

за формою подання:

Текстова — передана як символів, призначених позначати лексеми мови;

Числова - у вигляді цифр і знаків, що позначають математичні дії;

Графічна - у вигляді зображень, предметів, графіків;

Звукова - усна або у вигляді запису передача лексем мови аудіальним шляхом.

за призначенням:

Масова - містить тривіальні відомості та оперує набором понять, зрозумілим більшій частині соціуму;

Спеціальна - містить специфічний набір понять, при використанні відбувається передача відомостей, які можуть бути не зрозумілі основній масі соціуму, але необхідні і зрозумілі в рамках вузької соціальної групи, де використовується дана інформація;

Секретна - передана вузькому колу осіб та по закритих (захищених) каналах;

Особиста (приватна) — набір відомостей про будь-яку особистість, що визначає соціальне становище та типи соціальних взаємодій усередині популяції.

за значенням:

Актуальна – інформація цінна в даний момент часу;

Достовірна – інформація, отримана без спотворень;

Зрозуміла - інформація, виражена мовою зрозумілою тому, кому вона призначена;

Повна - інформація, достатня до ухвалення правильного рішення чи розуміння;

Корисна - корисність інформації визначається суб'єктом, який отримав інформацію залежно від обсягу можливостей її використання.

Значення інформації у різних галузях знань

Теоретично інформації нашого часу розробляють багато систем, методів, підходів, ідей. Проте вчені вважають, що до сучасних напрямів теорії інформації додадуться нові, з'являться нові ідеї. Як доказ правильності своїх припущень вони наводять «живий», що розвивається характер науки, вказують на те, що теорія інформації напрочуд швидко і міцно впроваджується в різні галузі людського знання. Теорія інформації проникла у фізику, хімію, біологію, медицину, філософію, лінгвістику, педагогіку, економіку, логіку, технічні науки, естетику. За визнанням самих фахівців, вчення про інформацію, що виникло з потреб теорії зв'язку та кібернетики, переступило їх рамки. І тепер, мабуть, ми маємо право говорити про інформацію як наукове поняття, що дає в руки дослідників теоретико - інформаційний метод, за допомогою якого можна проникнути в багато наук про живу і неживу природу, про суспільство, що дозволить не тільки поглянути на всі проблеми з новою сторони, але й побачити ще небачене. Ось чому термін «інформація» отримав у наш час стала вельми поширеною, ставши частиною таких понять, як інформаційна система, інформаційна культура, навіть інформаційна етика.

Багато наукових дисциплін використовують теорію інформації, щоб підкреслити новий напрямок у старих науках. Так з'явилися, наприклад, інформаційна географія, інформаційна економіка, інформаційне право. Але надзвичайно велике значення набув термін «інформація» у зв'язку з розвитком новітньої комп'ютерної техніки, автоматизацією розумової праці, розвитком нових засобів зв'язку та обробки інформації та особливо з виникненням інформатики. Однією з найважливіших завдань теорії інформації є вивчення природи та властивостей інформації, створення методів її обробки, зокрема перетворення найрізноманітнішої сучасної інформації в програми для ЕОМ, за допомогою яких відбувається автоматизація розумової роботи – своєрідне посилення інтелекту, а отже, розвиток інтелектуальних ресурсів суспільства.

Слово «інформація» походить від латинського слова informatio, що у перекладі означає зведення, роз'яснення, ознайомлення. Поняття «інформація» є базовим у курсі інформатики, проте неможливо дати його визначення через інші, простіші поняття. Поняття «інформація» використовується в різних науках, при цьому в кожній науці поняття «інформація» пов'язане з різними системами понять. Інформація в біології: Біологія вивчає живу природу та поняття «інформація» пов'язується з доцільною поведінкою живих організмів. У живих організмах інформація передається та зберігається за допомогою об'єктів різної фізичної природи (стан ДНК), які розглядаються як знаки біологічних алфавітів. Генетична інформація передається у спадок і зберігається у всіх клітинах живих організмів. Філосівський підхід: інформація – це взаємодія, відображення, пізнання. Кібернетичний підхід: інформація - це характеристики управителясигналу, що передається по лінії зв'язку.

Роль інформації у філософії

Традиціоналізм суб'єктивного постійно домінував у ранніх визначеннях інформації, як категорії, поняття, властивості матеріального світу. Інформація існує поза нашої свідомості, і може відбито у сприйнятті лише як результат взаємодії: відбиття, читання, отримання як сигналу, стимулу. Інформація не є матеріальною, як і всі властивості матерії. Інформація стоїть у ряду: матерія, простір, час, системність, функція, та ін. Інформація - властивість матерії та відображає її властивості (стан або здатність взаємодії) та кількість (захід) шляхом взаємодії.

З матеріального погляду інформація — це порядок проходження об'єктів матеріального світу. Наприклад, порядок проходження літер на аркуші паперу за певними правилами є письмовою інформацією. Порядок проходження різнокольорових точок на аркуші паперу за певними правилами є графічною інформацією. Порядок проходження музичних нот є музичною інформацією. Порядок проходження генів у ДНК є спадковою інформацією. Порядок прямування бітів в ЕОМ є комп'ютерною інформацією тощо. і т.п. Для здійснення інформаційного обміну потрібна наявність необхідних та достатніх умов.

Інформація (Information) - це

Необхідні умови:

Наявність щонайменше двох різних об'єктів матеріального чи нематеріального світу;

Наявність у об'єктів загальної властивості, що дозволяє ідентифікувати об'єкти як носій інформації;

Наявність в об'єктів специфічної якості, що дозволяє розрізняти об'єкти друг від друга;

Наявність якості простору, що дозволяє визначити порядок прямування об'єктів. Наприклад, розташування письмової інформації на папері - це специфічна властивість паперу, що дозволяє розташовувати букви зліва направо та зверху вниз.

Достатня умова одна: наявність суб'єкта, здатного розпізнавати інформацію. Це людина та людське суспільство, товариства тварин, роботів тощо. Інформаційне повідомлення будується шляхом вибору з базису копій об'єктів та розташування цих об'єктів у просторі у визначеному порядку. Довжина інформаційного повідомлення визначається як кількість копій об'єктів базису та завжди виражається цілим числом. Необхідно розрізняти довжину інформаційного повідомлення, яке завжди вимірюється цілим числом, та кількість знань, що міститься в інформаційному повідомленні, яке вимірюється у невідомій одиниці виміру. З математичної точки зору, інформація — це послідовність цілих чисел, які записані у вектор. Числа – це номер об'єкта у базисі інформації. Вектор називається інваріантом інформації, оскільки він залежить від фізичної природи об'єктів базису. Те саме інформаційне повідомлення може бути виражене літерами, словами, пропозиціями, файлами, картинками, нотами, піснями, відеокліпами, будь-якою комбінацією всіх раніше названих.

Інформація (Information) - це

Роль інформації у фізиці

інформація - це відомості про навколишній світ (об'єкт, процес, явища, подію), які є об'єктом перетворення (включаючи зберігання, передачу і т.д.) і використовуються для вироблення поведінки, для прийняття рішення, для управління або для навчання.

Характерними рисами інформації є такі:

Це найбільш важливий ресурс сучасного виробництва: він знижує потребу у землі, праці, капіталі, зменшує витрати сировини та енергії. Так, наприклад, маючи вміння архівувати свої файли (тобто маючи таку інформацію), можна не витрачатися на покупку нових дискет;

Інформація викликає життя нові виробництва. Наприклад, винахід лазерного променя стало причиною виникнення та розвитку виробництва лазерних (оптичних) дисків;

Інформація є товаром, причому її не втрачає після продажу. Так, якщо студент повідомить свого товариша відомості про розклад занять протягом семестру, він ці дані не втратить для себе;

Інформація надає додаткової цінності іншим ресурсам, зокрема, трудовим. Справді, працівник із вищою освітою цінується більше, ніж із середньою.

Як випливає з визначення, з інформацією завжди пов'язують три поняття:

Джерело інформації - той елемент навколишнього світу (об'єкт, явище, подія), відомості про які є об'єктом перетворення. Так, джерелом інформації, яку на даний момент отримує читач цього навчального посібника, є інформатика як сфера людської діяльності;

Набувач інформації - той елемент навколишнього світу, який використовує інформацію (для вироблення поведінки, для ухвалення рішення, для управління або для навчання). Набувач цієї інформації - сам читач;

Сигнал – матеріальний носій, який фіксує інформацію для перенесення її від джерела до набувача. У разі сигнал носить електронний характер. Якщо ж студент візьме цей посібник у бібліотеці, то та сама інформація матиме паперовий носій. Будучи прочитаною та запам'ятованою студентом, інформація придбає ще один носій - біологічний, коли вона "записується" на згадку учня.

Сигнал є найважливішим елементом у цій схемі. Форми його подання, а також кількісні та якісні характеристики інформації, що міститься в ньому, важливі для набувача інформації, розглядаються далі в даному розділі підручника. Основні характеристики комп'ютера як основного інструмента, що виконує відображення джерела інформації сигнал (зв'язок 1 малюнку) і “доведення” сигналу до набувача інформації (зв'язок 2 малюнку), наводяться у частині Комп'ютер. Структура процедур, що реалізують зв'язки 1 та 2 та складових інформаційний процес, є предметом розгляду в частині Інформаційний процес.

Об'єкти матеріального світу перебувають у стані безперервної зміни, що характеризується обміном енергією об'єкта із довкіллям. Зміна стану одного об'єкта завжди призводить до зміни стану, деякого іншого об'єкта навколишнього середовища. Це явище, незалежно від того, як, які саме стани та яких саме об'єктів змінилися, може розглядатися як передача сигналу від одного об'єкта іншому. Зміна стану об'єкта під час передачі йому сигналу, називається реєстрацією сигналу.

Сигнал або послідовність сигналів утворюють повідомлення, яке може бути сприйняте одержувачем у тому чи іншому вигляді, а також у тому чи іншому обсязі. Інформація у фізиці є термін, який якісно узагальнює поняття «сигнал» та «повідомлення». Якщо сигнали та повідомлення можна обчислювати кількісно, ​​то можна сказати, що сигнали та повідомлення є одиницями вимірювання обсягу інформації. Повідомлення (сигнал) різними системамиінтерпретується по-своєму. Наприклад, послідовно довгий і два короткі звукових сигналуу термінології абетки Морзе - це буква де (або D), в термінології БІОС від компанії award - несправність відеокарти.

Інформація (Information) - це

Роль інформації з математики

У математиці теорія інформації (математична теорія зв'язку) — розділ прикладної математики, визначальний поняття інформації, її властивості і встановлює граничні співвідношення для передачі даних. Основні розділи теорії інформації - кодування джерела (що стискає кодування) та канальне (перешкодостійке) кодування. Математика є більшою ніж науковою дисципліною. Вона створює єдину мову усієї Науки.

Предметом досліджень математики є абстрактні об'єкти: число, функція, вектор, безліч та інші. У цьому більшість їх вводиться аксіоматично (аксіома), тобто. без будь-якого зв'язку з іншими поняттями та без будь-якого визначення.

Інформація (Information) - це

інформація не входить до предметів дослідження математики. Проте слово «інформація» вживається в математичних термінах - власна інформація та взаємна інформація, що належать до абстрактної (математичної) частини теорії інформації. Проте, у математичної теорії поняття «інформація» пов'язані з виключно абстрактними об'єктами - випадковими величинами, тоді як і сучасної теорії інформації це поняття розглядається значно ширше - як властивість матеріальних об'єктів. Зв'язок між двома однаковими термінами безсумнівна. Саме математичний апарат випадкових чиселвикористав автор теорії інформації Клод Шеннон. Сам він має на увазі під терміном «інформація» щось фундаментальне (нередуковане). Теоретично Шеннона інтуїтивно вважається, що інформація має зміст. Інформація зменшує загальну невизначеність та інформаційну ентропію. Кількість інформації доступна виміру. Однак він застерігає дослідників від механічного перенесення понять з його теорії до інших галузей науки.

"Пошук шляхів застосування теорії інформації в інших галузях науки не зводиться до тривіального перенесення термінів з однієї галузі науки в іншу. Цей пошук здійснюється у тривалому процесі висування нових гіпотез та їх експериментальній перевірці." К. Шеннон.

Інформація (Information) - це

Роль інформації у кібернетиці

Засновник кібернетики Нор берт Вінер говорив про інформацію так:

інформація — це не матерія і не енергія, інформація — це інформація". Але основне визначення інформації, яке він дав у кількох своїх книгах, таке: інформація — це позначення змісту, отриманого нами із зовнішнього світу, у процесі пристосування до нього нас та наших почуттів.

Інформація - це основне поняття кібернетики, так само економічна І. - основне поняття економічної кібернетики.

Визначень цього терміна багато, вони складні та суперечливі. Причина, очевидно, у тому, що І. як явище займаються різні науки, і кібернетика лише наймолодша з них. І. - предмет вивчення таких наук, як наука про управління, математична, генетика, теорія засобів масової І. (друк, радіо, телебачення), інформатика, що займається проблемами науково-технічної І., і т. д. Зрештою, останнім часом великий інтерес до проблем І. виявляють філософи: вони схильні розглядати І. як одну з основних універсальних властивостей матерії, пов'язану з поняттям відображення. При всіх трактуваннях поняття І. вона передбачає існування двох об'єктів: джерела І. та набувача (одержувача) І. Передача І. від одного до іншого відбувається за допомогою сигналів, які, взагалі кажучи, можуть не мати жодного фізичного зв'язку з її змістом: ця зв'язок визначається угодою. Напр., удар у вічовий дзвін означав, що треба збиратися на площу, але тим, хто не знав про цей порядок, він не повідомляв жодної І.І.

У ситуації з вічовим дзвоном людина, яка бере участь у угоді про сенс сигналу, знає, що на даний момент можуть бути дві альтернативи: вічові збори відбудуться чи не відбудуться. Або, висловлюючись мовою теорії І., невизначена подія (віче) має два результати. Прийнятий сигнал призводить до зменшення невизначеності: людина тепер знає, що подія (віче) має лише один результат – вона відбудеться. Однак, якщо заздалегідь було відомо, що віче відбудеться о цій годині, дзвін нічого нового не повідомив. Звідси випливає, що чим менш ймовірно (тобто більш несподівано) повідомлення, тим більше І. воно містить, і навпаки, чим більше ймовірністьрезультату до здійснення події, тим менше І. містить сигнал. Приблизно такі міркування привели у 40-х роках. XX ст. до виникнення статистичної, чи “класичної”, теорії І., яка визначає поняття І. через міру зменшення невизначеності знання про вчинення будь-якої події (такий захід було названо ентропією). Біля витоків цієї науки стояли Н. Вінер, К. Шеннон та радянські вчені А. Н. Колмогоров, В. А. Котельников та ін. Їм вдалося вивести математичні закономірності вимірювання кількості І., а звідси і такі поняття, як пропускна здатність каналу І ., ємність запам'ятовують І. пристроїв і т. п., що послужило потужним стимулом розвитку кібернетики як науки і електронно-обчислювальної техніки як практичного застосування досягнень кібернетики.

Щодо визначення цінності, корисності І. для одержувача, то тут ще багато невирішеного, неясного. Якщо виходити з потреб економічного управлінняі, отже, економічної кібернетики, то І. можна визначити як усі ті відомості, знання, повідомлення, які допомагають вирішити те чи інше завдання управління (тобто зменшити невизначеність її результатів). Тоді відкриваються і деякі можливості для оцінки І.: вона тим корисніша, цінніша, чим швидше або з меншими витратамипризводить до розв'язання задачі. Поняття І. близьке до поняття дані. Проте з-поміж них є відмінність: дані — це сигнали, із яких треба витягти І. Обробка даних є процес приведення їх до придатного при цьому виду.

Процес їх передачі від джерела до набувача та сприйняття як І. може розглядатися як проходження трьох фільтрів:

Фізичного, або статистичного (чисто кількісне обмеження щодо пропускної спроможності каналу, незалежно від змісту даних, тобто з погляду синтактики);

Семантичного (відбір тих даних, які можуть бути зрозумілі одержувачем, тобто відповідають тезаурус його знань);

Прагматичного (відбір серед зрозумілих відомостей тих, які корисні для вирішення цього завдання).

Це добре показано на схемі, взятій із книги Є. Г. Ясіна про економічну інформацію. Відповідно виділяються три аспекти вивчення проблем І. – синтаксичний, семантичний та прагматичний.

За змістом І. підрозділяється на суспільно-політичну, соціально-економічну (у тому числі економічну І.), науково-технічну і т. д. Загалом класифікацій І. багато, вони будуються з різних підстав. Як правило, через близькість понять так само будуються і класифікації даних. Напр., І. підрозділяється на статичну (постійну) і динамічну (змінну), і дані при цьому - на постійні та змінні. Інше розподіл - первинна, похідна, вихідна І. (так само класифікуються дані). Третій поділ - І. керуюча і обізнана. Четверте — надмірна, корисна та хибна. П'яте - повна (суцільна) та вибіркова. Ця ідея Вінера дає пряме вказівку на об'єктивність інформації, тобто. її існування у природі незалежно від свідомості (сприйняття) людини.

Інформація (Information) - це

Об'єктивну інформацію сучасна кібернетика визначає як об'єктивне властивість матеріальних об'єктів і явищ породжувати різноманіття станів, які у вигляді фундаментальних взаємодій матерії передаються від одного об'єкта (процесу) іншому, і відбиваються у його структурі. Матеріальна система в кібернетиці сприймається як безліч об'єктів, які власними силами можуть у різних станах, але стан кожного їх визначається станами інших об'єктів системи.

Інформація (Information) - це

У природі безліч станів системи є інформацією, самі стани є первинний код, або код джерела. Таким чином кожна матеріальна система є джерелом інформації. Суб'єктивну (семантичну) інформацію кібернетика визначає як зміст чи зміст повідомлення.

Роль інформації в інформатиці

Предметом вивчення науки є саме дані: методи їх створення, зберігання, обробки та передачі. Контент (також: "наповнення" (в контексті), "наповнення сайту") - термін, що означає всі види інформації (як текстової, так і мультимедійної - зображення, аудіо, відео), що становить наповнення (візуалізоване, для відвідувача, вміст) веб -сайту. Застосовується відділення поняття інформації, що становить внутрішню структуру сторінки/сайту (код), від тієї, що у результаті виведено на экран.

Слово «інформація» походить від латинського слова informatio, що у перекладі означає зведення, роз'яснення, ознайомлення. Поняття «інформація» є базовим у курсі інформатики, проте неможливо дати його визначення через інші, простіші поняття.

Можна виділити такі підходи до визначення інформації:

Традиційний (звичайний) - використовується в інформатиці: інформація - це відомості, знання, повідомлення про стан справ, які людина сприймає з навколишнього світу за допомогою органів чуття (зір, слуху, смаку, нюху, дотику).

Імовірнісний - використовується в теорії про інформацію: інформація - це відомості про об'єкти та явища навколишнього середовища, їх параметри, властивості та стан, які зменшують наявний про них ступінь невизначеності та неповноти знань.

Інформація зберігається, передається та обробляється у символьній (знаковій) формі. Одна й та інформація може бути представлена ​​в різній формі:

Знаковий письмовій, що з різних знаків серед яких виділяють символьну як тексту, чисел, спец. символів; графічну; табличну тощо;

Види жестів чи сигналів;

усній словесній формі (розмова).

Подання інформації здійснюється за допомогою мов як знакових систем, що будуються на основі певного алфавіту та мають правила для виконання операцій над знаками. Мова – певна знакова система подання інформації. Існують:

Природні мови - розмовні мови в усній та письмовій формах. У деяких випадках розмовну мову можуть замінити мову міміки та жестів, мову спеціальних знаків (наприклад, дорожніх);

Формальні мови - спеціальні мови для різних галузей людської діяльності, які характеризуються жорстко зафіксованим алфавітом, суворішими правилами граматики та синтаксису. Це мова музики (ноти), мова математики (цифри, математичні знаки), системи числення, мови програмування тощо. В основі будь-якої мови лежить алфавіт – набір символів/знаків. Повне число символів алфавіту називається потужністю алфавіту.

Носії інформації - середовище або фізичне тіло для передачі, зберігання та відтворення інформації. (Це електричні, світлові, теплові, звукові, радіосигнали, магнітні та лазерні диски, друковані видання, фотографії тощо)

Інформаційні процеси - це процеси, пов'язані з отриманням, зберіганням, обробкою та передачею інформації (тобто дії, що виконуються з інформацією). Тобто. це процеси, у яких змінюється зміст інформації чи форма її представлення.

Для забезпечення інформаційного процесу необхідне джерело інформації, канал зв'язку та набувач інформації. Джерело передає (надсилає) інформацію, а приймач її отримує (сприймає). Інформація, що передається, досягає від джерела до приймача за допомогою сигналу (коду). Зміна сигналу дає змогу отримати інформацію.

Будучи об'єктом перетворення та використання, інформація характеризується такими властивостями:

Синтаксис - властивість, що визначає спосіб подання інформації на носії (у сигналі). Так, ця інформація представлена ​​на електронному носії за допомогою певного шрифту. Тут можна розглядати такі параметри подання інформації, як стиль і колір шрифту, його розміри, міжрядковий інтервал тощо. Виділення необхідних властивостей як синтаксичних якостей, зрозуміло, визначається передбачуваним методом перетворення. Наприклад, для людини, яка погано бачить, істотним є розмір і колір шрифту. Якщо передбачається вводити текст у комп'ютер через сканер, важливий формат паперу;

Семантика - властивість, що визначає зміст інформації як відповідність сигналу до реального світу. Так, семантика сигналу “інформатика” полягає у цьому визначенні. Семантика може розглядатися як деяка угода, відома набувачу інформації, про те, що означає кожен сигнал (так зване правило інтерпретації). Наприклад, саме семантику сигналів вивчає автомобіліст-початківець, що штудує правила дорожнього руху, пізнаючи дорожні знаки (у цьому випадку сигналами виступають самі знаки). Семантику слів (сигналів) пізнає той, хто навчається якійсь іноземній мові. Можна сказати, що зміст навчання інформатики полягає у вивченні семантики різних сигналів- сутність ключових понять цієї дисципліни;

Прагматика - властивість, що визначає вплив інформації на поведінку набувача. Так прагматика інформації, одержуваної читачем цього навчального посібника, полягає, щонайменше, в успішному складання іспиту з інформатики. Хочеться вірити, що цим прагматика даної праці не обмежиться, і він послужить для подальшого навчання професійної діяльностічитача.

Інформація (Information) - це

Слід зазначити, що різні синтаксису сигнали можуть мати однакову семантику. Наприклад, сигнали "ЕОМ" та "комп'ютер" означають електронний пристрій для перетворення інформації. У цьому випадку зазвичай говорять про синонімію сигналів. З іншого боку, один сигнал (тобто інформація з одним синтаксичним властивістю) може мати різну прагматику для споживачів і різну семантику. Так, дорожній знак, відомий під назвою "цегла" і має цілком певну семантику ("в'їзд заборонений"), означає для автомобіліста заборона на в'їзд, а на пішохода ніяк не впливає. У той же час, сигнал “ключ” може мати різну семантику: скрипковий ключ, джерельний ключ, ключ для відкриття замка, ключ, що використовується в інформатиці для кодування сигналу з метою захисту від несанкціонованого доступу (у цьому випадку говорять про омонімію сигналу). Є сигнали – антоніми, що мають протилежну семантику. Наприклад, "холодний" і "гарячий", "швидкий" та "повільний" і т.д.

Предметом вивчення науки інформатика є саме дані: методи їх створення, зберігання, обробки та передачі. А сама інформація, зафіксована в даних, її змістовний зміст цікаві користувачам інформаційних систем, які є фахівцями різних наук та галузей діяльності: медика цікавить медична інформація, геолога – геологічна, бізнесмена – комерційна тощо. (у тому числі фахівця з інформатики цікавить інформація щодо роботи з даними).

Семіотика - наука про інформацію

Інформацію не можна уявити без її отримання, обробки, передачі тощо, тобто поза рамками обміну інформацією. Усі акти інформаційного обміну здійснюються у вигляді символів чи знаків, з допомогою яких одна система впливає іншу. Тому основною нayкою, що вивчає інформацію, є семіотика - наука про знаки та знакові системи в природі та суспільстві (теорія знаків). У кожному акті інформаційного обміну можна виявити три його «учасники», три елементи: знак, об'єкт, який він позначає, та одержувача (користувача) знака.

Залежно від того, відносини між якими елементами розглядаються, семіотику поділяють на три розділи: синтактику, семантику та прагматику. Синтактика вивчає знаки та стосунки між ними. При цьому вона абстрагується від змісту знака та його практичного значення для одержувача. Семантика вивчає відносини між знаками та позначаються ними об'єктами, відволікаючись при цьому від одержувача знаків та цінності останніх: для нього. Зрозуміло, що вивчення закономірностей смислового відображення об'єктів у знаках неможливе без урахування та використання загальних закономірностей побудови будь-яких знакових систем, що вивчаються синтактикою. Прагматика вивчає відносини між знаками та їхніми користувачами. В рамках прагматики вивчаються всі фактори, що відрізняють один акт інформаційного обміну від іншого, всі питання практичних результатів використання інформації та цінності для одержувача.

При цьому неминуче зачіпаються багато аспектів відносин знаків між собою і з об'єктами, що ними позначаються. Таким чином, три розділи семіотики відповідають трьом рівням абстрагування (відволікання) від особливостей конкретних актів обміну інформацією. Вивчення інформації у всьому її різноманітті відповідає прагматичному рівню. Відволікаючись від одержувача інформації, виключаючи його з розгляду, ми переходимо до її вивчення на семантичному рівні. З відволіканням змісту знаків аналіз інформації перекладається рівень синтактики. Таке взаємопроникнення основних розділів семіотики, пов'язане з різними рівнями абстрагування, можна подати за допомогою схеми «Три розділи семіотики та їх взаємозв'язок». Вимірювання інформації здійснюється відповідно так само у трьох аспектах: синтактичному, семантичному та прагматичному. Потреба в такому різному виміріінформації, як буде показано нижче, диктується практикою проектування та фірмироботи інформаційних систем Розглянемо типову виробничу ситуацію.

Наприкінці зміни планувальник ділянки готує дані виконання графіка виробництва. Ці дані надходять до інформаційно-обчислювального центру (ІОЦ) підприємства, де обробляються, і у вигляді зведень про стан виробництва на поточний момент видаються керівникам. Начальник цеху на підставі отриманих даних приймає рішення про зміну плану виробництва на наступний плановий або вжиття будь-яких інших організаційних заходів. Очевидно, що для начальника цеху кількість інформації, що містила зведення, залежить від величини економічного афекту, отриманого від її використання при прийнятті рішень, від того, наскільки корисними були отримані відомості. Для планувальника ділянки кількість інформації в тому самому повідомленні визначається точністю відповідності його фактичному стану справ на ділянці та ступенем несподіванки фактів, що повідомляються. Чим вони несподіваніші, тим швидше потрібно повідомити про них керівництву, тим більше інформації в цьому повідомленні. Для працівників ІОЦ першорядне значення матиме кількість знаків, довжина повідомлення, що несе інформацію, оскільки саме вона визначає час завантаження обчислювальної техніки та каналів зв'язку. При цьому ні корисність інформації, ні кількісна міра смислової цінності інформації їх практично не цікавить.

Природно, що організуючи систему управління виробництвом, будуючи моделі вибору рішення, ми як міра інформативності повідомлень використовуватимемо корисність інформації. При побудові системи облікута звітності, що забезпечує керівництво даними про хід виробничого процесуза міру кількості інформації слід приймати новизну отриманих відомостей. Компаніяж процедур механічної переробки інформації вимагає вимірювання обсягу повідомлень як кількості оброблюваних символів. Три таких суттєво різних підходів до вимірювання інформації не суперечать і не виключають один одного. Навпаки, вимірюючи інформацію в різних шкалах, вони дозволяють повніше та всебічно оцінити інформативність кожного повідомлення та ефективніше організувати систему управління виробництвом. За влучним виразом проф. Н.Є. Кобринського, коли мова йдепро раціональну компанію потоків інформації, кількість, новизна, корисність інформації виявляються між собою так само пов'язаними, як кількість, якість та вартість продукції у виробництві.

Інформація у матеріальному світі

інформація - одне з загальних понять, пов'язані з матерією. Інформація існує у будь-якому матеріальному об'єкті як різноманіття його станів і передається від об'єкта до об'єкту у процесі взаємодії. Існування інформації як об'єктивної властивості матерії логічно випливає з відомих фундаментальних властивостей матерії — структурності, безперервної зміни (руху) та взаємодії матеріальних об'єктів.

Структурність матерії проявляється як внутрішня розчленованість цілісності, закономірний порядок зв'язку елементів у складі цілого. Інакше кажучи, будь-який матеріальний об'єкт, від субатомної частки Мета всесвіту (Великий вибух) загалом, є систему взаємозалежних підсистем. Внаслідок безперервного руху, що розуміється у широкому значенні як переміщення у просторі та розвиток у часі, матеріальні об'єкти змінюють свої стани. Стан об'єктів змінюється і за взаємодії коїться з іншими об'єктами. Безліч станів матеріальної системи та її підсистем представляє інформацію про систему.

Строго кажучи, через невизначеність, нескінченність, властивості структурності, кількість об'єктивної інформації в будь-якому матеріальному об'єкті нескінченна. Ця інформація називається повною. Однак можна виділяти структурні рівні з кінцевими множинами станів. Інформація, яка існує на структурному рівні з кінцевим числом станів, називається приватною. Для приватної інформації є сенс поняття кількості інформації.

З наведеного уявлення логічно і випливає вибір одиниці виміру кількості інформації. Уявімо систему, яка може перебувати всього в двох рівноймовірних станах. Надамо одному з них код "1", а іншому - "0". Це мінімальна кількість інформації, яку може містити система. Воно і є одиницею виміру інформації і називається біт. Існують й інші, складніше визначальніші способи та одиниці вимірювання кількості інформації.

Залежно від матеріальної форми носія, інформація буває двох основних видів - аналогова та дискретна. Аналогова інформація змінюється у часі безперервно і набуває значення континууму значень. Дискретна інформація змінюється в деякі моменти часу і набуває значень з деякої кількості значень. Будь-який матеріальний об'єкт чи процес є первинним джерелом інформації. Усі можливі його стани становлять код джерела інформації. Миттєве значення станів представляється як символ (літера) цього коду. Щоб інформація могла передаватися від одного об'єкта іншому як до приймача, необхідно, щоб був якийсь проміжний матеріальний носій, що взаємодіє з джерелом. Такими переносниками в природі, як правило, є процеси хвильової структури, що швидко поширюються - космічні, гамма і рентгенівські випромінювання, електромагнітні і звукові хвилі, потенціали (а може бути і ще не відкриті хвилі) гравітаційного поля. При взаємодії електромагнітного випромінювання з об'єктом внаслідок поглинання чи відображення змінюється спектр, тобто. змінюються інтенсивності деяких довжин хвиль. Змінюються при взаємодії з об'єктами та гармонікою звукових коливань. Інформація передається і при механічній взаємодії, проте механічна взаємодія, як правило, призводить до більших змін структури об'єктів (аж до їх руйнування), і інформація сильно спотворюється. Спотворення інформації при її передачі називається дезінформація.

Перенесення інформації джерела на структуру носія називається кодуванням. При цьому відбувається перетворення коду джерела на код носія. Носій з перенесеним нею кодом джерела як коду носія називається сигналом. Приймач сигналу має свій набір можливих станів, який називається кодом приймача. Сигнал, взаємодіючи з об'єктом-приймачем, змінює його стан. Процес перетворення коду сигналу в код приймача називається декодуванням. Передача інформації від джерела приймача можна розглядати як інформаційна взаємодія. Інформаційна взаємодія кардинально відрізняється з інших взаємодій. При всіх інших взаємодіях матеріальних об'єктів відбувається обмін речовиною та (або) енергією. При цьому один з об'єктів втрачає речовину чи енергію, а інший отримує їх. Ця властивість взаємодій називається симетричністю. При інформаційному взаємодії приймач отримує інформацію, а джерело втрачає її. Об'єктивна інформація сама по собі не матеріальна, вона є властивістю матерії, як, наприклад, структурність, рух, і існує на матеріальних носіях у вигляді своїх кодів.

Інформація у живій природі

Жива природа складна та різноманітна. Джерелами та приймачами інформації в ній є живі організми та їх клітини. Організм має низку властивостей, що відрізняють його від неживих матеріальних об'єктів.

Основні:

Безперервний обмін речовиною, енергією та інформацією з довкіллям;

Подразливість, здатність організму сприймати та переробляти інформацію про зміни навколишнього середовища та внутрішнього середовища організму;

Збудливість, здатність реагувати на дію подразників;

Самоорганізація, що проявляється як зміни організму для адаптації до умов зовнішнього середовища.

Організм, що розглядається як система, має ієрархічну структуру. Ця структура щодо самого організму поділяється на внутрішні рівні: молекулярний, клітинний, рівень органів та, нарешті, власне організм. Однак організм взаємодіє і над організмовими живими системами, рівнями яких є популяція, екосистема та вся жива природа загалом (біосфера). Між усіма цими рівнями циркулюють потоки не тільки речовини та енергії, але й інформації. Інформаційні взаємодії в живій природі відбуваються так само, як і в неживій. Разом з тим, жива природа у процесі еволюції створила широке розмаїття джерел, носіїв та приймачів інформації.

Реакція на впливи зовнішнього світу проявляється у всіх організмів, оскільки вона обумовлена ​​дратівливістю. У вищих організмів адаптація до зовнішнього середовища носить характер складної діяльності, яка ефективна лише за досить повної та своєчасної інформації про навколишнє середовище. Приймачами інформації із довкілля вони є органи почуттів, яких відносять зір, слух, нюх, смак, дотик і вестибулярний апарат. У внутрішній структурі організмів є численні внутрішні рецептори, пов'язані з нервовою системою. Нервова система складається з нейронів, відростки яких (аксони і дендрити) є аналогом каналів передачі інформації. Головними органами, що забезпечують зберігання та обробку інформації у хребетних, є спинний мозок та головний мозок. Відповідно до особливостей органів чуття інформацію, що сприймається організмом, можна класифікувати як візуальну, слухову, смакову, нюхову та тактильну.

Потрапляючи на сітківку людського ока, сигнал особливим чином збуджує її клітини. Нервові імпульси клітин через аксони передаються у мозок. Мозок запам'ятовує це відчуття у вигляді певної комбінації станів складових його нейронів. (Продовження прикладу – у секції "інформація в людському суспільстві"). Накопичуючи інформацію, мозок створює на своїй структурі пов'язану інформаційну модельнавколишнього світу. У живій природі для організму-приймача інформації важливою характеристикою є її доступність. Кількість інформації, яку нервова система людини здатна подати в мозок під час читання текстів, становить приблизно 1 біт за 1/16 с.

Інформація (Information) - це

Дослідження організмів утруднене їх складністю. Допустима для неживих об'єктів абстракція структури як математичної множини навряд чи допустима для живого організму, тому що для створення більш менш адекватної абстрактної моделі організму необхідно врахувати всі ієрархічні рівні його структури. Тому складно запровадити міру кількості інформації. Дуже складно визначаються зв'язки між компонентами структури. Якщо відомо, який орган є джерелом інформації, що є сигналом і що приймачем?

До появи обчислювальних машин біологія, що займається дослідженнями живих організмів, застосовувала лише якісні, тобто. описові моделі У якісній моделі зважити на інформаційні зв'язки між компонентами структури практично неможливо. Електронно-обчислювальна техніка дозволила застосувати в біологічних дослідженнях нові методи, зокрема метод машинного моделювання, що передбачає математичний опис відомих явищ і процесів, що відбуваються в організмі, додавання до них гіпотез про деякі невідомі процеси і розрахунок можливих варіантівповедінки організму. Отримані варіанти порівнюються з реальною поведінкою організму, що дозволяє визначити істинність чи хибність висунутих гіпотез. У таких моделях можна врахувати та інформаційну взаємодію. Надзвичайно складними є інформаційні процеси, які забезпечують існування життя. І хоча інтуїтивно зрозуміло, що ця властивість прямо пов'язана з формуванням, зберіганням та передачею повної інформаціїпро структуру організму, абстрактне опис цього феномену уявлялося до певного часу неможливим. Тим не менш, інформаційні процеси, що забезпечують існування цієї властивості, частково розкрито завдяки розшифровці генетичного коду та прочитанню геномів різних організмів.

Інформація у суспільстві

Розвиток матерії у процесі руху спрямоване у бік ускладнення структури матеріальних об'єктів. Одна з найскладніших структур – людський мозок. Поки що це єдина відома нам структура, що має властивість, яку сама людина називає свідомістю. Говорячи про інформацію ми, як мислячі істоти, апріорно маємо на увазі, що інформація, крім її наявності у вигляді сигналів, що приймаються нами, має ще і якийсь сенс. Формуючи у своїй свідомості модель навколишнього світу як взаємопов'язану сукупність моделей його об'єктів і процесів, людина використовує саме смислові поняття, а чи не інформацію. Сенс — сутність будь-якого феномена, яка збігається з ним самим і пов'язує його з ширшим контекстом реальності. Саме слово прямо вказує, що зміст змісту інформації можуть формувати тільки мислячі приймачі інформації. У людському суспільстві вирішального значення набуває не сама інформація, а її смислове зміст.

Приклад (продовження). Відчувши таке відчуття, людина присвоює об'єкту поняття - «помідор», яке стану поняття - «червоний колір». Крім того, його свідомість фіксує зв'язок: "помідор" - "червоного кольору". Це є сенс прийнятого сигналу. (Продовження прикладу: нижче у цій секції). Здатність мозку створювати смислові поняття та зв'язки між ними є основою свідомості. Свідомість можна розглядати як смислову модель навколишнього світу, що саморозвивається. Сенс це не інформація. Інформація існує лише на матеріальному носії. Свідомість людини вважається нематеріальною. Сенс існує у свідомості людини у вигляді слів, образів та відчуттів. Людина може вимовляти слова як вголос, а й «про себе». Він також «про себе» може створювати (або згадувати) образи та відчуття. Однак він може відновити інформацію, що відповідає цьому сенсу, вимовивши слова або написавши їх.

Інформація (Information) - це

Приклад (продовження). Якщо слова «помідор» і «червоний колір» є сенсом понять, то де ж тоді інформація? інформація міститься у мозку у вигляді певних станів його нейронів. Вона міститься також у надрукованому тексті, що складається з цих слів, і при кодуванні літер трирозрядним двійковим кодом її кількість дорівнює 120 біт. Якщо вимовити слова вголос, інформації буде значно більше, але зміст залишиться тим самим. Найбільше інформації несе зоровий образ. Це відбивається навіть у народному фольклорі - "краще один раз побачити, ніж сто разів почути". Відновлена ​​таким чином інформація називається семантичною інформацією, оскільки вона кодує сенс деякої первинної інформації (семантика). Почувши (або побачивши) фразу, вимовлену (або написану) мовою, яку людина не знає, вона отримує інформацію, але не може визначити її зміст. Тому передачі сенсового змісту інформації необхідні деякі договори між джерелом і приймачем про зміст змісту сигналів, тобто. слів. Такі домовленостіможуть бути досягнуті у процесі спілкування. Спілкування одна із найважливіших умов існування людського суспільства.

У сучасному світі інформація є одним з найважливіших ресурсів і, водночас, однією з рушійних сил розвитку людського суспільства. Інформаційні процеси, що відбуваються в матеріальному світі, живій природі та людському суспільстві вивчаються (або принаймні враховуються) усіма науковими дисциплінами від філософії до маркетингу. Зростаюча складність завдань наукових досліджень призвела до необхідності залучення до вирішення великих колективів вчених різних спеціальностей. Тому майже всі аналізовані нижче теорії є міждисциплінарними. Історично склалося так, що дослідженням безпосередньо інформації займаються дві комплексні галузі науки — кібернетика та інформатика.

Сучасна кібернетика – це мультидисциплінарна галузьнауки, що досліджує надскладні системи, такі як:

Людське суспільство (соціальна кібернетика);

економіка (економічна кібернетика);

Живий організм (біологічна кібернетика);

Людський мозок та його функція - свідомість (штучний інтелект).

Інформатика, що сформувалася як наука в середині минулого століття, відокремилася від кібернетики та займається дослідженнями в галузі способів отримання, зберігання, передачі та обробки семантичної інформації. Обидві ці галузівикористовують кілька основних наукових теорій. До них відносяться теорія інформації, та її розділи - теорія кодування, теорія алгоритмів та теорія автоматів. Дослідження смислового змісту інформації ґрунтуються на комплексі наукових теорій під загальною назвою семіотика. Теорія інформації - комплексна, в основному математична теорія, що включає опис та оцінки методів вилучення, передачі, зберігання та класифікації інформації. Розглядає носії інформації як елементи абстрактної (математичної) множини, а взаємодії між носіями як спосіб розташування елементів у цій множині. Такий підхід дає можливість формально описати код інформації, тобто визначити абстрактний код та дослідити його математичними методами. Для цих досліджень застосовує методи теорії ймовірностей, математичної статистики, лінійної алгебри, теорії ігор та інших математичних теорій.

Основи цієї теорії заклав американський учений Еге. Хартлі в 1928 р., який визначив міру кількості інформації деяких завдань зв'язку. Пізніше теорія була значно розвинена американським ученим До. Шенноном, російськими вченими А.Н. Колмогоровим, В.М Глушковим та ін. Сучасна теорія інформації включає в себе як розділи теорію кодування, теорію алгоритмів, теорію цифрових автоматів (див. нижче) та деякі інші. вченим М. Мазуром.C поняттям алгоритму знайомий будь-яка людина, навіть не підозрюючи про це. Ось приклад неформального алгоритму: «Помідори нарізати кружальцями чи часточками. Покласти в них нашатковану цибулю, полити олією, потім посипати дрібно нарізаним стручковим перцем, перемішати. Перед вживанням посипати сіллю, укласти салатник і прикрасити зеленню петрушки». (Салат з помідорів).

Перші в історії людства правила вирішення арифметичних завдань були розроблені одним із відомих вчених давнини Аль-Хорезмі в IX столітті нашої ери. На його честь формалізовані правила для досягнення будь-якої мети називають алгоритмами. Предметом теорії алгоритмів є знаходження методів побудови та оцінки ефективних (у тому числі й універсальних) обчислювальних та керуючих алгоритмів для обробки інформації. Для обгрунтування таких методів теорія алгоритмів використовує математичний апарат теорії інформації. Великий внесок у розвиток теорії алгоритмів зробили російські вчені А. Марков (Нормальний алгоритм Маркова) і А. Колмогоров.

Поняття автомата виникло теорії алгоритмів. Якщо існують деякі універсальні алгоритми розв'язання обчислювальних завдань, то повинні існувати і пристрої (нехай і абстрактні) для реалізації таких алгоритмів. Власне, абстрактна машина Тьюринга, що розглядається в теорії алгоритмів, є водночас і неформально певним автоматом. Теоретичне обґрунтування побудови таких пристроїв є предметом теорії автоматів. Теорія автоматів використовує апарат математичних теорій - алгебри, математичної логіки, комбінаторного аналізу, теорії графів, теорії ймовірностей та ін. керуючих систем. Семіотика - комплекс наукових теорій, що вивчають властивості знакових систем. Найбільш істотних результатів досягнуто в розділі семіотики - семантиці. Предметом досліджень семантики є змістове зміст інформації.

Знаковою системою вважається система конкретних чи абстрактних об'єктів (знаків, слів), з кожним у тому числі певним чином зіставлено деяке значення. Теоретично доведено, що таких зіставлень може бути два. Перший вид відповідності визначає безпосередньо матеріальний об'єкт, що означає це слово і називається денотат (або, у деяких роботах, - номінант). Другий вид відповідності визначає зміст знака (слова) і називається концептом. При цьому досліджуються такі властивості зіставлень як «сенс», «істинність», «визначність», «слідування», «інтерпретація» та ін. Для досліджень використовується апарат математичної логіки та математичної лінгвістики. Ідеї семантики, намічені ще Г. В. Ф де Соссюром в XIX столітті, сформулювали і розвинули Ч. Пірс (1839-1914), Ч. Морріс (р. 1901), Р. Карнап (1891-1970) та ін. Основним досягненням теорії є створення апарату семантичного аналізу, що дозволяє уявити зміст тексту природною мовою у вигляді запису деякою формалізованою семантичною (смисловою) мовою. Семантичний аналіз є основою для створення пристроїв (програм) машинного перекладу з однієї природної мови на іншу.

Зберігання інформації здійснюється з допомогою її перенесення деякі матеріальні носії. Семантична інформація, зафіксована на матеріальному носії для зберігання, називається документом. Зберігати інформацію людство навчилося дуже давно. У найдавніших формах зберігання інформації використовувалося розташування предметів — раковин та каміння на піску, вузликів на мотузці. Істотним розвитком цих способів стала писемність - графічне зображення символів на камені, глині, папірусі, папері. Величезне значення у розвитку цього напряму мало винахіддрукарства. За свою історію людство накопичило величезний обсяг інформації у бібліотеках, архівах, періодичних виданнях та інших письмових документах.

В даний час особливого значення набуло зберігання інформації у вигляді послідовностей двійкових символів. Для реалізації цих методів використовуються різноманітні пристрої. Вони є центральною ланкою систем зберігання інформації. Крім них у таких системах використовуються засоби пошуку інформації ( Пошукова система), засоби отримання довідок (інформаційно-довідкові системи) та засоби відображення інформації (пристрій виведення). Сформовані за призначенням інформації такі інформаційні системи утворюють бази даних, банки даних та база знань.

Передача семантичної інформації називається процес її просторового перенесення від джерела до одержувача (адресату). Передавати та отримувати інформацію людина навчилася навіть раніше, ніж зберігати її. Мова є способом передачі, який використовували наші далекі предки у безпосередньому контакті (розмові) – нею ми користуємось і зараз. Для передачі інформації на великі відстані необхідно використовувати значно складніші інформаційні процеси. Для здійснення такого процесу інформація повинна бути певним чином оформлена (представлена). Для представлення інформації використовуються різні знакові системи - набори заздалегідь обумовлених значеннєвих символів: предметів, картинок, написаних або надрукованих слів природної мови. Представлена ​​за їх допомогою семантична інформаціяпро який-небудь об'єкт, явище або процес називається повідомленням.

Очевидно, що для передачі повідомлення на відстань інформація повинна бути перенесена на мобільний носій. Носії можуть переміщатися в просторі за допомогою транспортних засобів, як це відбувається з листами, що надсилаються поштою. Такий спосіб забезпечує повну достовірність передачі, оскільки адресат отримує оригінал повідомлення, проте вимагає значного часу передачі. З середини XIX століття набули поширення способи передачі інформації, що використовують носій інформації, що природно розповсюджується, — електромагнітні коливання (електричні коливання, радіохвилі, світло). Реалізація цих способів вимагає:

Попереднього перенесення інформації, що міститься в повідомленні, носій - кодування;

Забезпечення передачі отриманого таким чином сигналу адресату спеціальним каналом зв'язку;

Зворотне перетворення коду сигналу на код повідомлення — декодування.

Інформація (Information) - це

Використання електромагнітних носіїв робить доставку повідомлення адресату майже миттєвою, проте вимагає додаткових заходів щодо забезпечення якості (достовірності та точності) інформації, що передається, оскільки реальні канали зв'язку піддаються впливу природних і штучних перешкод. Пристрої, що реалізують процес передачі, утворюють системи зв'язку. Залежно від способу подання інформації системи зв'язку можна поділяти на знакові ( , телефакс), звукові ( ), відео та комбіновані системи (телебачення). Найбільш розвиненою системою зв'язку нашого часу є Інтернет.

Обробка інформації

Оскільки інформація не матеріальна, її обробка полягає у різних перетвореннях. До процесів обробки можна віднести будь-які перенесення інформації з носія на інший носій. Інформація, що призначена для обробки, називається даними. Основним видом обробки первинної інформації, отриманої різними приладами, є перетворення на форму, що забезпечує її сприйняття органами почуттів людини. Так, фото космосу, отримані в рентгенівських променях, перетворюються на звичайні кольорові фотографії з використанням спеціальних перетворювачів спектра та фотоматеріалів. Прилади нічного бачення перетворюють зображення, одержуване в інфрачервоних (теплових) променях, зображення у видимому діапазоні. Для деяких завдань зв'язку та управління необхідно перетворення аналогової інформації. Для цього використовуються аналого-цифрові та цифро-аналогові перетворювачі сигналів.

Найважливішим видом обробки семантичної інформації є визначення змісту (змісту), що полягає у деякому повідомленні. На відміну від первинної семантичної інформації немає статистичнихПоказників, тобто кількісної міри - сенс або є, або його немає. А скільки його, якщо він є, встановити неможливо. Зміст, що міститься в повідомленні, описується штучною мовою, що відображає смислові зв'язки між словами вихідного тексту. Словник такої мови, що називається тезаурусом, знаходиться у приймачі повідомлення. Сенс слів та словосполучень повідомлення визначається шляхом їх віднесення до певних груп слів або словосполучень, зміст яких вже встановлено. Тезаурус, таким чином, дозволяє встановити зміст повідомлення і одночасно поповнюється новими смисловими поняттями. Описаний вид обробки інформації застосовується в інформаційно-пошукових системах та системах машинного перекладу.

Одним з поширених видів обробки інформації є рішення обчислювальних задач і завдань автоматичного управління за допомогою обчислювальних машин. Обробка інформації завжди проводиться з певною метою. Для її досягнення має бути відомий порядок дій над інформацією, що призводить до заданої мети. Такий порядок дій називається алгоритмом. Крім самого алгоритму необхідний деякий пристрій, що реалізує цей алгоритм. У наукових теоріях такий пристрій називається автоматом. Слід зазначити як найважливішу особливістьінформації той факт, що через несиметричність інформаційної взаємодії при обробці інформації виникає нова інформація, а вихідна інформація не втрачається.

Аналогова та цифрова інформація

Звук це хвильові коливання в якомусь середовищі, наприклад, у повітрі. Коли людина говорить, коливання зв'язок горла перетворюються на хвильові коливання повітря. Якщо розглядати звук не як хвилю, а як коливання в одній точці, то ці коливання можна уявити, як тиск повітря, що змінюється в часі. За допомогою мікрофона можна вловити зміни тиску і перетворити їх на електрична напруга. Відбулося перетворення тиску повітря на коливання електричної напруги.

Таке перетворення може відбуватися за різними законами, найчастіше перетворення відбувається за лінійним законом. Наприклад, за таким:

U(t)=K(P(t)-P_0),

де U(t) – електрична напруга, P(t) – тиск повітря, P_0 – середній тиск повітря, а K – коефіцієнт перетворення.

І електрична напруга, і тиск повітря є безперервними функціями часу. Функції U(t) та P(t) є інформацією про коливання зв'язок горла. Ці функції безперервні і така інформація називається аналоговою. окремий випадокзвуку та її теж можна у вигляді якоїсь функції від часу. Це буде аналогова вистава музики. Але музику також записують у вигляді нот. Кожна нота має кратну тривалість заздалегідь заданої тривалості, і висоту (до, ре, мі, фа, сіль і т.д). Якщо ці дані перетворити на цифри, ми отримаємо цифрове представлення музики.

Людське мовлення, як і є окремим випадком звуку. Її теж можна уявити в аналоговому вигляді. Але як музику можна розбити на ноти, можна розбити на літери. Якщо кожній літері дати свій набір цифр, то ми отримаємо цифрове уявлення мови. Різниця між аналоговою інформацією та цифровою в тому, що аналогова інформація безперервна, а цифрова дискретна. Перетворення інформації з одного виду в інший залежно від роду перетворення називають по-різному просто "перетворення", наприклад, цифро-аналогове перетворення, або аналого-цифрове перетворення; складні перетворення називають "кодуванням", наприклад, дельта-кодування, ентропійне кодування; перетворення між такими характеристиками, як амплітуда, частота або фаза називають "модуляцією", наприклад, амплітудно-частотна модуляція, широтно-імпульсна модуляція.

Інформація (Information) - це

Зазвичай аналогові перетворення досить прості і з ними легко справляються. різні пристроївинайдені людиною. Магнітофон перетворює намагніченість на плівці на звук, диктофон перетворює звук на намагніченість на плівці, відеокамера перетворює світло на намагніченість на плівці, осцилограф перетворює електричну напругу або струм на зображення і т.д. Перетворення аналогової інформації на цифрову помітно складніше. Деякі перетворення машині здійснити не вдається або вдається насилу. Наприклад, перетворення мови в текст, або перетворення запису концерту в ноти, і навіть за своєю природою цифрове уявлення: текст на папері дуже важко машині перетворити в той же текст у пам'яті комп'ютера.

Інформація (Information) - це

Навіщо тоді використовувати цифрове подання інформації, якщо воно так складно? Основне перевага цифрової інформації перед аналоговою це схибленість. Тобто в процесі копіювання інформації цифрова інформація копіюється так як є, її можна копіювати практично нескінченну кількість разів, аналогова інформація в процесі копіювання зашумляється, її якість погіршується. Зазвичай аналогову інформацію можна копіювати не більше трьох раз. погіршилася якість запису. Інформація на касеті зберігається у аналоговому вигляді. Музику у форматі mp3 Ви можете переписувати скільки завгодно, і якість музики від цього не погіршується. Інформація у файлі mp3 зберігається у цифровому вигляді.

Кількість інформації

Людина чи якийсь інший приймач інформації, отримавши порцію інформації, дозволяє деяку невизначеність. Візьмемо для прикладу все також дерево. Коли ми побачили дерево, ми дозволили низку невизначеностей. Ми дізналися висоту дерева, вид дерева, щільність листя, колір листя і, якщо це плодове дерево, ми побачили на ньому плоди, наскільки вони дозріли і т.п. До того як ми подивилися на дерево, ми цього не знали, після того як ми подивилися на дерево, ми дозволили невизначеність - отримали інформацію.

Якщо ми вийдемо на луг і подивимося на нього, то ми отримаємо інформацію іншого роду, наскільки луг великий, наскільки висока трава та якого кольору трава. Якщо на цей же самий луг вийде біолог, то він також зможе дізнатися: які сорти трав ростуть на лузі, якого типу цей луг, він побачить які квіти зацвіли, які тільки зацвітуть, чи придатний луг для випасу корів і т.п. Тобто, він отримає кількість інформації більше, ніж ми, оскільки в нього, перед тим як він подивився на луг, було більше запитань, чи біолог вирішить більшу кількість невизначеностей.

Інформація (Information) - це

Чим більша невизначеність була дозволена у процесі отримання інформації, тим більше інформації ми отримали. Але це суб'єктивний захід кількості інформації, а нам хотілося б мати об'єктивний захід. Існує формула до розрахунку кількості інформації. Ми маємо деяку невизначеність, і у нас існує N-а кількість випадків вирішення невизначеності, і кожен випадок має деяку ймовірність дозволу, тоді кількість отриманої інформації можна розрахувати за такою формулою, яку запропонував нам Шеннон:

I = -(p_1 log_(2)p_1 + p_2 log_(2)p_2 +... +p_N log_(2)p_N), де

I – кількість інформації;

N – кількість наслідків;

p_1, p_2,..., p_N- ймовірності результату.

Інформація (Information) - це

Кількість інформації вимірюється у бітах – скорочення від англійських слів BInary digiT, що означає двійкова цифра.

Для рівноймовірних подій формулу можна спростити:

I = log_(2)N, де

I – кількість інформації;

N – кількість наслідків.

Візьмемо, наприклад, монету і кинемо її на стіл. Вона впаде або орлом, або рішкою. У нас є 2 рівноймовірні події. Після того, як ми кинули монету, ми отримали log_(2)2=1 біт інформації.

Спробуємо дізнатися, скільки інформації ми отримаємо після того, як кинемо кубик. У кубика шість граней – шість рівноймовірних подій. Отримуємо: log_(2)6 approx 2,6. Після того, як ми кинули кубик на стіл, ми отримали приблизно 2,6 біт інформації.

Імовірність того, що ми побачимо марсіанського динозавра, коли вийдемо з дому, дорівнює одній десятимільярдній. Скільки інформації ми отримаємо про марсіанського динозавра після того, як вийдемо з дому?

Left(((1 over (10^(10)))) log_2(1 over (10^(10))) + left(( 1 - (1 over (10^(10))))) ight) log_2 left(( 1 - (1 over (10^(10))) ) ight)) ight) approx 3,4 cdot 10^(-9) біта.

Припустимо, що ми залишили 8 монет. Ми маємо 2^8 варіантів падіння монет. Отже, після кидка монет ми отримаємо log_2(2^8)=8 біт інформації.

Коли ми ставимо питання і можемо однаково отримати відповідь «так» чи «ні», то після відповіді питання ми отримуємо один біт інформації.

Дивно, що якщо застосувати формулу Шеннона для аналогової інформації, ми отримаємо нескінченну кількість інформації. Наприклад, напруга в точці електричного ланцюга може набувати рівноймовірного значення від нуля до одного вольта. Кількість наслідків у нас дорівнює нескінченності і, підставивши це значення у формулу для рівноймовірних подій, ми отримаємо нескінченність - нескінченну кількість інформації.

Зараз я покажу, як закодувати «війну та мир» за допомогою лише однієї ризики на будь-якому металевому стрижні. Закодуємо всі літери та знаки, що зустрічаються в « війніі світ», за допомогою двозначних цифр – їх має нам вистачити. Наприклад, букві "А" дамо код "00", букві "Б" - код "01" і так далі, закодуємо розділові знаки, латинські букви і цифри. Перекодуємо « війнуі мир» за допомогою цього коду і отримаємо довге число, наприклад, таке 70123856383901874..., намалюємо перед цим числом кому і нуль (0,70123856383901874...). Вийшло число від нуля до одиниці. Поставимо ризикуна металевому стрижні так, щоб відношення лівої частини стрижня до довжини цього стрижня дорівнювало якраз нашому числу. Таким чином, якщо раптом нам захочеться почитати «війну та мир», ми просто виміряємо ліву частину стрижня до ризикиі довжину всього стрижня, поділимо одне число на інше, отримаємо число і перекодуємо його назад у літери ("00" - "А", "01" - "Б" і т.д.).

Інформація (Information) - це

Реально таке зробити нам не вдасться, тому що ми не зможемо визначати довжини з нескінченною точністю. Збільшувати точність виміру нам заважають деякі інженерні проблеми, а квантова фізика нам показує, що після певної межі, нам вже заважатиме квантові закони. Інтуїтивно нам зрозуміло, що чим менша точність виміру, тим менше інформації ми отримуємо, і чим більша точність виміру, тим більше інформації ми отримуємо. Формула Шеннона не підходить для вимірювання кількості аналогової інформації, але для цього існують інші методи, що розглядаються в «Теорії інформації». У комп'ютерної технікибіт відповідає фізичному стану носія інформації: намагнічено - не намагнічено, є отвір - немає отвору, заряджено - не заряджено, відбиває світло - не відбиває світло, високий електричний потенціал - низький електричний потенціал. У цьому одне стан прийнято позначати цифрою 0, інше - цифрою 1. Послідовністю бітів можна закодувати будь-яку інформацію: текст, зображення, звук тощо.

Нарівні з бітом часто використовується величина звана байтом, зазвичай вона дорівнює 8 бітам. І якщо біт дозволяє вибрати один рівноймовірний варіант із двох можливих, то байт - 1 із 256 (2^8). Для вимірювання кількості інформації також прийнято використовувати більші одиниці:

1 Кбайт (один кілобайт) 210 байт = 1024 байта

1 Мбайт (один мегабайт) 210 Кбайт = 1024 Кбайта

1 Гбайт (один гігабайт) 210 Мбайт = 1024 Мбайта

Реально приставки СІ кіло-, мега-, гіга-мають використовуватися для множників 10^3, 10^6 і 10^9, відповідно, але історично склалася практика використання множників зі ступенями двійки.

Біт по Шеннону і біт, який використовується в комп'ютерній техніці, збігаються, якщо ймовірність появи нуля або одиниці в комп'ютерному биті дорівнює. Якщо ймовірності не рівні, то кількості інформації по Шеннону стає менше, це ми побачили на прикладі марсіанського динозавра. Комп'ютерна кількістьінформації дає найвищу оцінку кількості інформації. Енергозалежна пам'ять після подачі на неї живлення ініціалізується зазвичай якимось значенням, наприклад, всі одиниці або всі нулі. Зрозуміло, що після подачі харчування на згадку, ніякої інформації там немає, оскільки значення в осередках пам'яті суворо визначені, ніякої невизначеності немає. Пам'ять може зберігати в собі певну кількість інформації, але після подачі на неї живлення жодної інформації в ній немає.

Дезінформація — свідомо неправдива інформація, що надається противнику або діловому партнеру для більш ефективного ведення військових дій, співпраці, перевірки на витік інформації та направлення її витоку, виявлення потенційних клієнтівчорного рынка.Также дезінформацією (також дезінформовані) називається сам процес маніпулювання інформацією, як то: введення будь-кого в оману шляхом надання неповної інформації або повної, але вже не потрібної інформації, спотворення контексту, спотворення частини інформації.

Мета такого впливу завжди одна - опонент повинен вчинити так, як це потрібно маніпулятору. Вчинок об'єкта, проти якого спрямована дезінформація, може полягати у прийнятті потрібного маніпулятора рішення або у відмові від прийняття невигідного для маніпулятора рішення. Але в будь-якому випадку кінцева мета — це дія, яку буде здійснено опонентом.

Дезінформація, таким чином, це товардіяльності людини, спроба створити помилкове враження і, відповідно, підштовхнути до бажаних дій та/або бездіяльності.

Інформація (Information) - це

Види дезінформації:

Введення в оману конкретної особи або групи осіб (у тому числі цілої нації);

Маніпулювання (вчинками однієї особи або групи осіб);

Створення громадської думки щодо якоїсь проблеми чи об'єкта.

Інформація (Information) - це

Введення в оману - це не що інше, як прямий обман, надання неправдивої інформації. Маніпулювання - це спосіб впливу, спрямований безпосередньо на зміну напрямку активності людей. Виділяють наступні рівніманіпулювання:

Посилення існуючих у свідомості людей, вигідних маніпулятору цінностей (ідей, установок);

Часткова зміна поглядів на ту чи іншу подію чи обставину;

Кардинальна зміна життєвих установок.

Створення громадської думки – це формування у суспільстві певного ставлення до обраної проблеми.

Джерела та посилання

ru.wikipedia.org - вільна енциклопедія Вікіпедія

youtube.com - відеохостинг ютуб

images.yandex.ua - картинки яндекс

google.com.ua - картинки Google

ru.wikibooks.org - вікіпідручник

inf1.info - Планета Інформатики

old.russ.ru - Російський Журнал

shkolo.ru - Інформаційний довідник

5byte.ru - Сайт інформатики

ssti.ru - Інформаційні технології

klgtu.ru - Інформатика

informatika.sch880.ru – сайт вчителя інформатики О.В. Підвінцевий

Енциклопедія культурології

Основне поняття кібернетики, так само економічна І. основне поняття економічної кібернетики. Визначень цього терміна багато, вони складні та суперечливі. Причина цього, очевидно, у тому, що І. як явище займається. Економіко-математичний словник


Wir verwenden Cookies für die beste Präsentation unserer Website. Wenn Sie diese Website weiterhin nutzen, stimmen Sie dem zu. OK

Анотація: У цій лекції ми розглянемо такі питання: асоціації як основа роботи людського мозку, поняття про теорії обробки, систематизації та візуалізації інформації, Mind mapping та візуальне мислення.

Як говорилося вище, предметом цього курсу є mind mapping – ефективна техніка підвищення персональної продуктивності. Але перш ніж обговорювати області застосування mind map "ів, правила їх побудови та типові помилки їх використання, більше того, перш ніж намагатися пояснити, що таке mind mapping взагалі, потрібно поговорити про візуальне (або радіантне) мислення, втіленням і результатом якого є mind map "и.

Асоціації як основа роботи людського мозку

Ви коли-небудь замислювалися про те, на яких принципах ґрунтується робота тих надпотужних комп'ютерів, які кожен з нас носить усередині свого черепа? Готовий тримати парі - перша думка, що спала на думку більшості читачів, була про мікропроцесори, що лежать в основі наших ноутбуків і робочих станцій. Однак невиразні підозри про непорівнянність "вагових категорій" кремнієвого мікрочіпа і головного мозку все ж таки не дають нам з упевненістю розмірковувати про те, як все просто - двійкова арифметика, "є імпульс - немає імпульсу" і таке інше. Так, як модель роботи мозку двійкова машина цілком прийнятна, але дуже груба ця модель (ми ж пам'ятаємо, що будь-яка модель відображає тільки одне, найбільш важливе в даному контексті властивість об'єкта, правда?). Якось надто примітивно виходить – звести наше мислення до нулів та одиниць. А як тоді пояснити той каскад дрібних спогадів – відчуттів, квітів, запахів, ідей, що проносяться перед нашим поглядом, коли ми про щось думаємо? Багато з цих образів для більшості сторонніх людей ніяк не пов'язані з предметом наших роздумів і означають щось конкретне лише для них, оскільки пов'язані з якимись особистими спогадами та переживаннями. Дозвольте собі подумати про щось і не дотримуйтесь якогось певного напряму думки – ви будете здивовані тим, як швидко і далеко ви втечете від початкової теми роздумів: образи, що змінюються, пов'язані, як ланки одного ланцюга, витягуючи один одного із засіків пам'яті, швидко відведуть вас від об'єкта, про який ви подумали. Звичайно, можна спробувати пояснити подібну поведінку нашого мозку тим, що він просто відпрацьовує геніально складну розгалужену програму обробки інформації з урахуванням даних, що вже зберігаються в пам'яті, але далеко не так просто.

Будь-яка інформація, що надходить у наш мозок (неважливо, що це – дотик, смак, запах, колір, звук), витягує за собою на світ Божий масу дрібних спогадів, думок і відчуттів, подібно до того, як від каменя, що впав у ставок, розходяться по поверхні води концентричних кіл. А кожен із цих спогадів тягне за собою безліч інших, які, у свою чергу, викликають до життя все нові і нові образи, думки чи ідеї. Так, я розумію, що вже трохи втомив читача своїми широкими міркуваннями. А суть їх полягала в тому, що поодиноки та нулі, можливо хороші для того, щоб пояснити, як працює наш мозок фізично, але якщо йдеться про принципи його роботи, то слід говорити не про біти, а про асоціаціях як мінімальних одиницях обробки інформації людським мозком. Чи пам'ятаєте поняття лексеми як мінімальної одиниці мови, що має самостійний зміст? Так от, у тій мові, якою "говорить" наш мозок, такими лексемами є асоціації. Що ж таке асоціація?

Асоціація:

  • у фізіології - утворення тимчасового зв'язку між індиферентними подразниками в результаті їх багаторазового поєднання за часом;
  • у психології – закономірний зв'язок між окремими подіями, фактами, предметами чи явищами, відбитими у свідомості та закріпленими у пам'яті.

За наявності асоціативного зв'язку між психічними явищами A та B виникнення у свідомості людини явища A закономірним чином тягне за собою появу у свідомості явища B.

Отже, кожна асоціація пов'язана з величезною кількістю нових асоціацій, які, у свою чергу, пов'язані з новими та новими поняттями. Таким чином, мислення можна подати у вигляді складного асоціативного алгоритму, свого роду слалому по гілках дерева асоціацій, що розходяться від стовбура – ​​основної думки. Свого часу професор Анохін (http://ua.wikipedia.org/wiki/Анохін,_Петр_Кузьмич) говорив, що можливості мозку щодо формування асоціативних зв'язків набагато перевершують його можливості щодо зберігання інформації. Що ж до інформаційної ємності мозку, вона теж дуже вражає – доктор Марк Розенцвейг (http://en.wikipedia.org/wiki/Mark_Rosenzweig) писав, що навіть у тому випадку, якби людина запам'ятовувала 10 одиниць інформації ( слово , зображення або інше елементарне враження) кожну секунду протягом 100 років заповнити вдалося б менше однієї десятої сумарного обсягу людської пам'яті. І скільки б таких одиниць інформації не зберігалося у нас у голові, кількість асоціацій, пов'язаних з ними, ще на кілька порядків вища! Потенціал людського мозку, пов'язаний зі створенням асоціацій, воістину безмежний: всі наші ідеї, спогади і відчуття зберігаються у нас у голові у вигляді своєрідних "треків" – звивистих доріжок, що гілкуються, що пов'язують їх з іншими нашими думками.

Ось приклад того, що зазвичай твориться у нас в голові:

Чи не так, дуже знайома картина?

Таким чином, в основі роботи нашого мозку лежать два найважливіші принципи.

  • Асоціативне мислення– зв'язок кожного спогаду з безліччю інших образів, і саме про цей принцип ми з вами говорили останні десять хвилин.
  • Ієрархія понять- у кожному такому асоціативному "треку" один із образів є головним (кореневим), від якого розходяться гілки-доріжки до інших понять, ідей, спогадів. В результаті ми отримуємо якесь дерево (або граф) образів, пов'язаних із вихідним поняттям.

Якщо ж постаратися об'єднати ці два принципи (які працюють у комплексі, доповнюючи один одного), слід сказати про так зване радіантне, або візуальному, мислення. Про нього ми поговоримо у цій же лекції, але трохи пізніше. А поки що постараємося розібратися в тому, які ж теорії обробки, систематизації та візуалізації інформації існують у даний момент, і чи не мають вони якихось спільних рис із описаними нами вище принципами роботи людського мозку.

Поняття про теорії обробки, систематизації та візуалізації інформації

Існуючі теорії обробки інформації

Почнемо з визначень.

Обробка інформації- Будь-яке перетворення інформації з одного виду в інший, що виробляється за суворими формальними правилами.

Теорія обробки інформації (information-processing theory)- Напрямок наукового знання, що вивчає те, як люди звертаються з інформацією, відбирають і засвоюють її, а потім використовують у процесі прийняття рішень та управління своєю поведінкою.

Теорії обробки інформації застосовуються щодо сприйняття, пам'яті, уваги, мови, мислення та розв'язання завдань експериментальної психології. У свою чергу, великий внесок у розвиток згаданих теорій зробили математична логіка, техніка зв'язку, теорія інформації та теорія обчислювальних систем. Чому ж ми говоримо "теорії" - у множині? Справа в тому, що насправді слід говорити про ціле сімейство абсолютно розрізнених теоретичних та дослідницьких програм. Природно, як і в будь-якому науковому співтоваристві, згоди між дослідниками немає й близько – думки вчених сходяться лише в деяких вихідних посилках, теорії та методології досліджень. У рамках згаданого сімейства можна виділити такі широко відомі у вузьких колах підходи, як трансформаційна лінгвістика (http://ua.wikipedia.org/wiki/Генеративна_лінгвістика), психологія Піаже (http://www.gumer.info/bibliotek_Buks/Psihol/ Jaroschev/11.php) та радикальний біхевіоризм. Біхевіоризм, зокрема, займався вивченням поведінки тварин та активно поширював свої принципи на всі галузі психології. Однак виникли деякі труднощі при спробі поширити теорію та методи біхевіоризму на символічні процеси людини, зокрема на мовні здібності. Коли розчарування вчених у звичних методах стало загальним, дослідники-психологи звернулися до інших теорій, внаслідок чого про біхевіоризм майже забули. Проте вчені, які розвивають теорії обробки інформації, поділяють зі своїми попередниками-біхевіористами віру в емпіризм, операціоналізм тощо. Так, психологи відмовилися від поширення людей висновків, отриманих внаслідок експериментів з тваринами, і пояснення видимої поведінки індивідів зовнішніми причинами, зокрема, впливами довкілля. У той же час загальна методологія та статистичні методи обробки результатів експериментів залишилися колишніми – просто тварин як піддослідні змінили люди. Вчена братія знову визнала існування вроджених здібностей і почала активно обговорювати такі внутрішні процеси, як плани, стратегії, образи, рішення та асоціації.

ХХ століття ознаменувалося бурхливим розвитком технологій зв'язку – телефонії, радіо та телебачення. Дуже показовою була продемонстрована психологами аналогія між обробкою інформації людським мозком та роботою описаного теоретично зв'язку інформаційного каналу. Велику роль у створенні математичної теорії інформації та перенесенні понять теорії зв'язку на роботу людського мозку відіграли дослідження Клода Шеннона (знайоме ім'я, чи не так?). Створена ним теорія визначає передачу повідомлень будь-якої природи від джерела будь-якому одержувачу, зокрема і передачу сигналів всередині людського мозку.

Але згадаємо ще про одну незрозумілу назву, згадану нами на початку цього розділу, – трансформаційну лінгвістику. Свого часу Ноам Хомський стверджував, що людську мову неможливо науково пояснити з позицій біхевіоризму. Він наполягав на тому, що цей підхід абсолютно неправильно представляє природу мови, ігноруючи її структуру, правила та граматику. Натомість він говорив про "правила в голові" людини, що дозволяють перетворити (трансформувати) інформацію - розбити її на смислові одиниці (слова) і зв'язати ці одиниці між собою. Відійшовши від біхевіоризму, нова парадигма обробки інформації у пошуках ідей дедалі більше схилялася до лінгвістики. Ось і сучасні дослідники прагнуть виявити психологічні чи розумові операції, які лежать в основі мовної активності. Активно вивчаються такі види когнітивної активності, як сприйняття, пам'ять, мислення та розуміння. І поняття асоціації знову не залишилося осторонь.

Що ж до теорії обчислювальних систем, то за цією назвою також ховається цілий висновок абсолютно різношерстих дисциплін. Сюди входять теорія алгоритмів, чисельні методи, теорія кінцевих автоматів, мови програмування, теорія штучного інтелектуі багато іншого ... І це не єдина риса, яка ріднить теорію обчислювальних систем з психологією обробки інформації, - обидва напрями виросли з математичної логіки, обидва займалися вивченням природи розумної поведінки, а поява обчислювальних машин та розвиток принципів, на яких вони будувалися, призвело до виникненню ще однієї аналогії людських психічних та інтелектуальних здібностей. Машинні моделі допомогли у вивченні мислення і особливо процесу вирішення завдань. Відштовхуючись від цієї аналогії, психологи намагаються пояснити, яким чином мозок отримує інформацію, перекодує і зберігає її в пам'яті, яким чином він використовує її для прийняття рішень і управління поведінкою. Звичайно, повної відповідності між роботою мозку і комп'ютера немає і бути не може, але все ж таки вченим вдалося створити струнку концепцію, здатну пояснити, яким чином інтелектуальна система - чи це людина або якийсь пристрій - створює нові знання. Здогадайтеся, яке поняття відіграє тут найважливішу роль? Так, звичайно, ви маєте рацію - це поняття асоціації!

Систематизація та структурування інформації

Отже, з опрацюванням інформації ми розібралися, перейдемо тепер до систематизації. Звичайно, ми не забуваємо про те, що систематизація інформації - це складова частина алгоритму обробки інформації, його етап, але все одно, про цей етап потрібно сказати окремо. Як завжди, спочатку звернемося до визначення:

Систематизувати- Розподілити елементи інформації за ознаками спорідненості, подібності, тобто класифікувати і типізувати їх.

Мозок людини (в контексті процесів сприйняття, запам'ятовування, перетворення інформації тощо) працює саме з систематизованоюінформацією. Наприклад, процес запам'ятовування проходить набагато ефективніше, якщо людині вдається раціонально структурувати отримувану інформацію, розкласти по поличках, як кажуть у народі. У комунікативних процесах (пам'ятаєте, ми говорили про мову та лінгвістику?) систематизоване уявлення інформації, що передається, також відіграє важливу роль. Систематизаціяі структуруванняінформації – найважливіші психологічні механізми, завдяки яким мозок може ефективно обробляти великі потоки інформації.

Прагнення цілісного охоплення об'єкта вивчення, до систематизації знань властиво будь-якому процесу пізнання. Багато дослідників відзначали, що процес роботи мозку над проблемою йде від усвідомлення властивостей, характеристик і функцій об'єкта вивчення до пошуку структурних елементів, зв'язків і відносин між ними. А якщо опанувати системний підхід і розвинути своє вміння систематизувати та структурувати інформацію, можна допомогти мозку працювати ефективніше у процесі навчання та при вирішенні професійних завдань.

Структури даних бувають різні – лінійні (перелік), табличні, ієрархічні (дерево). Дерева (графи) понять, побудовані на основі асоціативних зв'язків, - найбільш природний для нашого мозку спосіб представлення (структурування) даних (хоча, строго кажучи, не слід плутати асоціативні та класифікаційні відносини). Згадаймо про візуальне мислення? До речі, якщо ми вже заговорили про дерева, то нам час плавно перейти до розгляду питання про візуалізацію інформації. Але перш зазначимо, що існує цілий напрямок наукового знання, що вивчає методи та прийоми структурування інформації, що називається інформаційною архітектурою. Класики кажуть, що

інформаційна архітектура- як наука займається принципами систематизації інформації та навігації по ній з метою допомогти людям успішніше знаходити та обробляти потрібні їм дані.

Перше, що спадає нам на думку при слові "візуалізація", – це графіки та діаграми (ось вона, сила асоціацій!). З іншого боку, візуалізувати в такий спосіб можна лише числові дані, нікому ще вдавалося побудувати графік з урахуванням зв'язкового тексту. Для тексту можемо побудувати план, виділити основні думки (тези) – зробити короткий конспект. Про недоліки та шкоду конспектування ми поговоримо трохи пізніше, а зараз скажемо про те, що якщо об'єднати план і короткий конспект – "розважити" тези по гілках дерева, структура якого відповідає структурі (плану) тексту, то ми отримаємо відмінну структурну схемутексту, який запам'ятається набагато краще, ніж будь-який конспект. У цьому випадку гілки відіграватимуть роль тих "треків" – доріжок, що пов'язують поняття та тези, про які ми говорили раніше.

Помнете, як ми будували UML-діаграми на основі опису проектованої програмної системи, отриманої від її майбутніх користувачів? Отримані картинки сприймалися і клієнтами, і розробниками набагато простіше та швидше, ніж текстовий опис. Так само можна "зобразити" абсолютно будь-який текст, не тільки технічне завдання на розробку системи. Підхід, описаний нами вище, дозволяє візуально представити абсолютно будь-який текст - чи це казка, технічне завдання, лекція, фантастичний роман або результати наради - у вигляді зручного і простого для сприйняття дерева. Будувати його можна як завгодно - аби вийшла наочна і зрозуміла схема, яку добре ще проілюструвати підходящими за змістом малюнками.

Такі схеми зручно застосовувати й у спілкуванні під час обговорення будь-яких питань та проблем. Як показує практика, відсутність чітких стандартів нотації не створює жодних комунікативних труднощів для учасників обговорень. Навпаки, використання невербальних форм подання інформації дозволяє зосередити увагу саме на ключових точках проблеми. Таким чином, візуалізація є одним із найбільш перспективних напрямів підвищення ефективності аналізу, подання, сприйняття та розуміння інформації.

Ух, нарешті ми покінчили з нудним описом наукових теорій, методів та прийомів, що застосовуються для обробки, систематизації та візуалізації інформації! Попередня частина глави сильно втомила і автора, і читачів, проте вона була необхідна: в результаті ми побачили, що особливості роботи нашого мозку вже активно застосовуються вченими в різних галузях науки, багато речей, які здаються нам звичними, – персональні комп'ютери, інтерфейси користувача, бази знань і т.д. – спочатку будувалися з урахуванням асоціативного характеру людського мислення та його схильності до ієрархічного подання та візуалізації інформації. Але вершиною і природним графічним виразом розумових процесів людини є mind mapping, до обговорення якого ми нарешті переходимо. А заразом спробуємо розширити наше розуміння принципів візуального мислення.