Дистанційне Навчання ДДАУ
  Завдання №1, ЛабРобота 1
 

ЛАБОРАТОРНА РОБОТА №1.

Тема роботи. Загальні відомості про економічну інформацію та інформаційні системи. Системи счислення, кодування, переведення кодів (2 год.)

 

Мета роботи. Засвоїти основні відомості про інформацію, інформаційні системи та обчислювальні машини, системи счислення, кодування, переведення кодів.

МЕТОДИЧНІ УКАЗІВКИ

Рекомендована література:

      1.  Інформатика і комп'ютерна техніка : Навчальний посібник/ Ред. М.Є. Рогоза. - К.: Академія, 2006. - 368 с. - (Альма-матер)

      2.  Кучерява, Тетяна Олексіївна. Інформатика та комп'ютерна техніка: активізація навчання: Практикум для індивідуальної роботи/ Т.О. Кучерява, М.В. Сільченко, І.В. Шабаліна. - К.: КНЕУ, 2006. - 443 с.

      3.  Інформатика для економістів. Беспалов В.М., Навч. посібник для ВНЗ, с. 788, 2003

      4.  Дибкова Л.М. Інформатика та комп’ютерна техніка. Посібник. К.: Академія, 2002.- 320с.

ОДИНИЦІ КІЛЬКОСТІ ІНФОРМАЦІЇ: ПІДХОДИ ВІРОГІДНОСТНИЙ І ОБ'ЄМНИЙ

Визначити поняття «кількість інформації» досить складно. У рішенні цієї проблеми існують два основні підходи. Історично вони виникли майже одночасно. У кінці 40-х років XX століття один з основоположників кібернетики, американський математик Клод Шеннон, розвинув вірогідностний підхід до вимірювання кількості інформації, а роботи із створення ЕОМ привели до «об'ємного» підходу.

ПІДХІД ВІРОГІДНОСТНИЙ

Розглянемо як приклад дослід, пов'язаний з киданням правильної гральной кістки, що має N граней. Результати даного досліду можуть бути такі: випадання грані з одним з наступних знаків: 1, 2, ..., N.

Уведемо в розгляд чисельну величину, що вимірює невизначеність – ентропію (позначимо її Н). Згідно теорії, у разі рівноімовірного випадання кожної з граней величини N н Н зв'язані між собою формулою Хартлі

Н = log2N

Важливим при введенні якої-небудь величини є питання про те, що приймати за одиницю її вимірювання. Очевидно, H буде рівне одиниці при N = 2. Інакше кажучи, за одиницю приймається кількість інформації, пов'язана з проведенням досліду, що полягає в отриманні одного з двох рівноімовірних результатів (прикладом такого досліду може служити кидання монети, при якому можливі два результати: «орел», «решка»). Така одиниця кількості інформації називається «біт».

У разі, коли вірогідності Рі, результатів досліду (у прикладі, приведеному вище, – кидання гральної кістки) неоднакові, має місце формула Шеннона

   N

Н = - Pi * Log2Pi

i = 1

У разі рівноімовірності подій Рі = 1/N, і формула Шенона переходить у формулу Хартлі. Як приклад визначимо кількість інформації, пов'язану з появою кожного символу в повідомленнях, записаних російською мовою. Вважатимемо, що російський алфавіт складається з 33 букв і знаку «пропуск» для розділення слів. По формулі Хартлі Н = Iog234 = 5,08(9) біт.

Проте у словах російської мови (рівно як і в словах інших мов) різні букви зустрічаються неоднаково часто. Нижче приведена табл.1.1 вірогідності частоти вживання різних знаків російського алфавіту, одержана на основі аналізу дуже великих за об'ємом текстів.

Скористаємося для підрахунку формулою Шеннона: Н ≈ 4,72 біт. Одержане значення Н, як і можна було припустити, менше за обчислене раніше. Величина Н, обчислювана по формулі Хартлі, є максимальною кількістю інформациі, яка могла б доводитися на один знак, якщо їх поява була б рівноімовірною.

Аналогічні підрахунки Н можна провести і для інших мов, наприклад, з латинським алфавітом – англійської, німецької, французької тощо (26 різних букв і «пропуск»). По формулі Хартлі одержимо Н= Iog227 ≈ 4,76 біт .

Таблиця 1.1

ЧАСТОТНІСТЬ БУКВ РОСІЙСЬКОЇ МОВИ

I

Символ

P(i)

=-C2*LOG(C2;2)

I

Символ

P(i)

 

I

Символ

P(i)

 

1

_ (пропуск)

0,175

0,4401

12

Л

0,035

0,1693

23

Б

0,014

0,0862

2

0

0,09

0,3127

13

К

0,028

0,1444

24

Г

0,012

0,0766

3

Е

0,072

0,2733

14

М

0,026

0,1369

25

Ч

0,012

0,0766

4

Ё

0,072

0,2733

15

Д

0,025

0,1330

26

И

0,01

0,0664

5

А

0,062

0,2487

16

П

0,023

0,1252

27

X

0,009

0,0612

6

И

0,062

0,2487

17

У

0,021

0,1170

28

Ж

0,007

0,0501

7

Т

0,053

0,2246

18

Я

0,018

0,1043

29

Ю

0,006

0,0443

8

Н

0,053

0,2246

19

Ы

0,016

0,0955

30

Ш

0,006

0,0443

9

С

0,045

0,2013

20

3

0,016

0,0955

31

Ц

0,004

0,0319

10

Р

0,04

0,1858

21

Ь

0,014

0,0862

32

Щ

0,003

0,0251

11

В

0,038

0,1793

22

Ъ

0,014

0,0862

33

Э

0,003

0,0251

 

 

 

 

 

 

 

 

34

Ф

0,002

0,0179

                                                                                                                                                                                                                          

                                   4,71                                                                                                                         5,09     = LOG(34;2)           

           = СУММ(D2:D12;H2:H12;L2:L13)                                                                                                                                         

 

Розглянемо алфавіт, що складається з двох знаків 0 і 1. Якщо вважати, що із знаками 0 і 1 в двійковому алфавіті зв'язана однакова вірогідність їх появи Р(0) = Р(1) = 0,5, то кількість інформації на один знак при двійковому кодуванні буде рівна Н= Iog22 = 1 біт.

Таким чином, кількість інформації (у бітах), укладене в двійковому слові, дорівнює числу двійкових знаків у ньому.

ОБ'ЄМНИЙ ПІДХІД

У двійковій системі числення знаки 0 і 1 називають бітами (bit — від англійського Binary digiTs — двійкові цифри). У комп'ютері біт є найменшою можливою одиницею інформації. Об'єм інформації, записаної двійковими знаками у пам'яті комп'ютера або на зовнішньому носії інформації, підраховується по числу двійкових символів, що потрібні для такого запису. При цьому, неможливе неціле число бітів (на відміну від вірогідностного підходу).

Для зручності використовуються і більші, ніж біт, одиниці кількості інформації. Так, двійкове слово з восьми знаків (бітів) містить один байт інформації. 1024 байти утворюють кілобайт (Кбайт), 1024 кілобайти — мегабайт (Мбайт), а 1024 мегабайти — гігабайт (Гбайт).

Між вірогідностною і об'ємною кількістю інформації співвідношення неоднозначне. Далеко не усякий текст, записаний двійковими символами, допускає вимірювання об'єму інформації у значенні вірогідності (кібернетичному), але явно допускає його в об'ємному. Далі, якщо деяке повідомлення допускає вимірність кількості інформації в обох значеннях, то ця кількість не обов'язково співпадає, при цьому кібернетична кількість інформації не може бути більше об'ємної.

У прикладній інформатиці практично завжди кількість інформації розуміється в об'ємному значенні.

Вимірювання інформації важливе, але не можна зводити до нього усі пов'язані з цим поняттям проблеми. При аналізі інформації соціального (у широкому значенні) походження на перший план можуть виступити такі її властивості, як істинність, своєчасність, цінність, повнота тощо. Їх неможливо оцінити в термінах «зменшення невизначеності» (підхід вірогідності) або числа символів (об'ємний підхід). Звернення до якісної сторони інформації породило інші підходи до її оцінки. При аксиологичному підході прагнуть виходити з цінності, практичної значущості інформації, тобто з якісних характеристик, значущих у соціальній системі. При семантичному підході інформація розглядається з точки зору, як форми, так і змісту. При цьому інформацію пов'язують з тезаурусом, тобто повнотою систематизованого набору даних про предмет інформації. Ці підходи не виключають кількісного аналізу, але він стає істотно складніше і повинен базуватися на сучасних методах математичної статистики.

Поняття інформації не можна вважати лише технічним, міждисциплінарним і навіть наддісциплінарним терміном. Інформація — це фундаментальна філософська категорія. Дискусії учених про філософські аспекти інформації надійно показали незводимість інформації до жодної з цих категорій. Концепції і тлумачення, що виникають на шляху догматичних підходів, виявляються дуже односторонніми, що не охоплюють всього об'єму цього поняття.

Спроби розглянути категорію інформації з позицій основного питання філософії (?) привели до виникнення двох протистоячих концепцій — функціональної і атрибутивної. «Атрибутисти» кваліфікують інформацію як властивість усіх матеріальних об'єктів, тобто як атрибут матерії. «Функционалісти» зв'язують інформацію лише з функціонуванням складних систем, що самоорганізовуються.

Можна спробувати дати філософське визначення інформації за допомогою вказівки на зв'язок визначуваного поняття з категоріями віддзеркалення і активності. Інформація є зміст образу, формованого в процесі віддзеркалення. Активність входить в це визначення у вигляді уявлення про формування якогось образу в процесі віддзеркалення деякого суб'ект-об'ектного відношення. При цьому не вимагається вказівки на зв'язок інформації з матерією, оскільки як суб'єкт, так і об'єкт процесу віддзеркалення можуть належати як до матеріальної, так і до духовної сфери соціального життя. Проте істотно підкреслити, що матеріалістичне рішення основного питання філософії вимагає визнання необхідності існування матеріального середовища — носія інформації в процесі такого віддзеркалення. Отже, інформацію слід трактувати як іманентний (невід'ємно властивий) атрибут матерії, необхідний момент її саморуху і саморозвитку. Ця категорія набуває особливого значення стосовно вищих форм руху матерії — біологічної і соціальної.

Відома велика кількість робіт, присвячених фізичному трактуванню інформації. Ці роботи значною мірою побудовані на основі аналогії формули Больцмана, що описує ентропію статистичної системи матеріальних частинок, і формули Хартлі. Відповідні матеріали можна знайти в літературі.

Інформацію слід вважати особливим видом ресурсу, при цьому «ресурс» розуміється як запас якихось знань матеріальних предметів або енергетичних, структурних та інших характеристик предмету. На відміну від ресурсів, пов'язаних з матеріальними предметами, інформаційні ресурси є невичерпними і припускають істотно інші методи відтворення і оновлення, ніж матеріальні ресурси. У зв'язку з таким поглядом центральними стають наступні властивості інформації: запам’ятовуваність, передаваємість, перетворюваність, відтворність, стираємість.

Підводячи підсумок сказаному, відзначимо, що робляться (але зовсім не завершені) зусилля учених, що представляють різні області знання, побудувати єдину теорію, яка покликана формалізувати поняття інформації і інформаційного процесу, описати перетворення інформації в процесах самої різної природи. Рух інформації є суть процесів управління, які суть прояв іманентної активності матерії, її здібності до саморуху. З моменту виникнення кібернетики управління розглядається стосовно всіх форм руху матерії, а не тільки до вищих (біологічної і соціальної). Багато проявів руху в неживих — штучних (технічних) і природних системах також мають загальні ознаки управління, хоча їх досліджують в хімії, фізиці, механіці в енергетичній, а не в інформаційній системі уявлень. Інформаційні аспекти в таких системах складають предмет нової міждисциплінарної науки — синергетики.

Вищою формою інформації, що виявляється в управлінні в соціальних системах, є знання. Це наддісциплінарне поняття, широко використовуване в педагогіці і дослідженнях по штучному інтелекту, також претендує на роль найважливішої філософської категорії. У філософському плані пізнання слідує розглядати як один з функціональних аспектів управління. Такий підхід відкриває шлях до системного розуміння генезису процесів пізнання, його основ і перспектив.

Контрольні питання

    1.   Яка форма представлення інформації — безперервна або дискретна прийнятна для комп'ютерів і чому?

    2.   У чому полягає процедура дискретизації безперервної інформації?

    3.   Які визначення поняття «інформація» Ви знаєте?

    4.   Назвіть основні властивості інформації.

    5.   Яким чином виникає, зберігається, обробляється і передається інформація?

    6.   Яка форма представлення інформації використовується в інформатиці?

    7.   Які види інформаційних сигналів Ви знаєте?

    8.   У чому переваги дискретного представлення інформації?

    9.   Чи може людина передати інформацію машині? Яким чином? А навпаки?

 10.   Що таке кількість інформації?

 11.   Що є вищою формою інформації?

ПЕРЕВЕДЕННЯ ЧИСЕЛ З ОДНІЄЇ ПОЗИЦІЙНОЇ СИСТЕМИ СЧИСЛЕННЯ В ІНШУ

При переведенні чисел з десяткової системи счислення в систему з основою Р > 1 звичайно використовують наступний алгоритм:

1)  якщо переводиться ціла частина числа, то вона ділиться на Р, після чого запам’ятовується залишок від ділення. Одержана частка знов ділиться на Р, залишок запам’ятовується. Процедура продовжується до тих пір, поки частка не стане рівною нулю. Залишки від ділення на Р виписуються в порядку, зворотному їх отриманню;

2)  якщо переводиться дробова частина числа, то вона множиться на Р, після чого ціла частина запам'ятовується і відкидається. Знов одержана дробова частина множиться на Р і т.д. Процедура продовжується до тих пір, поки дробова частина не стане рівною нулю. Цілі частини виписуються після двійкової коми у порядку їх отримання. Результатом може бути або кінцевий, або періодичний двійковий дріб. Тому, коли дріб є періодичним, доводиться обривати множення на якому-небудь кроці і задовольнятися наближеним записом числа у системі з основою Р.

Приклад 1. Перевести дане число з десяткової системи счислення в двійкову (одержати п'ять знаків після коми в двійковому представленні): а) 464(10); б) 380,1875(10); в) 115,94(10).

Рішення:

а)

 

 

б)

 

 

 

 

 

  в)

 

464

0

 

380

0

,

1875

 

115

1

,

94

232

0

 

190

0

0

375

 

57

1

1

88

116

0

 

95

1

0

75

 

28

0

1

76

58

0

 

47

1

1

5

 

14

0

1

52

29

1

 

23

1

1

0

 

7

1

1

04

14

0

 

11

1

 

 

 

3

1

0

08

7

1

 

5

1

 

 

 

1

1

0

16

3

1

 

2

0

 

 

 

 

 

 

 

1

1

 

1

1

 

 

 

 

 

 

 

а) 464(10)= 111010000(2); б) 380,1875(10)= 101111100,0011(2),

в)  115,94(10) = 1110011,11110(2).

(у даному випадку було одержано шість знаків після коми, після чого результат був закруглений).

Якщо необхідно перевести число з двійкової системи счислення в систему счислення, основою якої є ступінь двійки, достатньо об'єднати цифри двійкового числа в групи по стільки цифр, який показник ступеня, і використовувати приведений нижче алгоритм. Наприклад, якщо переклад здійснюється у вісімкову систему, то групи міститимуть три цифри (8 = 23). У цілій частині числа угрупування проводиться справа наліво, в дробовій частині — зліва направо. Якщо в останній групі бракує цифр, дописуються нулі: у цілій частині — зліва, в дробовій — справа. Потім кожна група замінюється відповідною цифрою нової системи. Відповідності приведені в таблиці.

Завдання на роботу.

1.    Ознайомитися зі структурою інформаційно-комп’ютерної системи.

2.    Перевести задане число у двійкову систему счислення з точністю до 5 двійкових знаків, отримане число перевести у десяткову систему і визначити похибку. Роботу виконати вручну і на комп'ютері.

3.    Визначити сумарну кількість інформації у літерах власного прізвища через вірогідностний і об’ємний підхід.

4.    Скласти таблицю „Частотність букв української мови”.

Таблиця для переведення чисел

Табл.1.2

варіанту

Число у системі счислення:

Похибка
D =
графа4 - графа2

десятковій (decimal), початкове число

двійковій (binary)
переведено з десяткової
(графа2)

десятковій, переведено з двійкової (графа3)

1

2

3

4

5

1

202,717

 

 

 

190,993

 

 

 

2

198,207

 

 

 

231,385

 

 

 

3

218,708

 

 

 

194,183

 

 

 

4

180,126

 

 

 

174,666

 

 

 

5

209,245

 

 

 

202,870

 

 

 

6

188,346

 

 

 

209,924

 

 

 

7

177,849

 

 

 

215,984

 

 

 

8

190,331

 

 

 

200,937

 

 

 

9

211,377

 

 

 

198,409

 

 

 

10

184,105

 

 

 

202,977

 

 

 

11

237,387

 

 

 

196,796

 

 

 

12

189,408

 

 

 

237,404

 

 

 

13

204,005

 

 

 

193,822

 

 

 

14

208,867

 

 

 

176,736

 

 

 

15

182,740

 

 

 

201,551

 

 

 

16

195,071

 

 

 

205,048

 

 

 

17

218,439

 

 

 

187,441

 

 

 

18

231,875

 

 

 

171,157

 

 

 

19

191,015

 

 

 

217,667

 

 

 

20

214,555

 

 

 

192,045

 

 

 

21

191,566

 

 

 

175,833

 

 

 

22

219,116

 

 

 

196,528

 

 

 

23

192,957

 

 

 

214,888

 

 

 

24

201,625

 

 

 

185,158

 

 

 

25

200,962

 

 

 

212,948

 

 

 

26

220,106

 

 

 

174,719

 

 

 

27

172,931

 

 

 

217,148

 

 

 

28

172,037

 

 

 

184,745

 

 

 

29

219,448

 

 

 

180,581

 

 

 

30

199,177

 

 

 

180,227

 

 

 

31

170,245

 

 

 

187,632

 

   


Таблиця для переведення чисел з двійкової систему счислення у десяткову Табл.1.3  

вага розряду

128

64

32

16

8

4

2

1

,

  1/2

  1/4

  1/8

  1/16

  1/32

розряди

7

6

5

4

3

2

1

0

-1

-2

-3

-4

-5

двійковий код

1

1

0

0

1

0

1

0

1

0

1

1

0

доданки для підсумку

128

64

0

0

8

0

2

0

0,500

0,000

0,125

0,063

0,000

підсумок - число, переведене з двійкової системи у десяткову 202,688
 =1*128+1*64+0*32+0*16+1*8+0*4+1*2+0*1+1*1/2+0*1/4+*1/8+1*1/16+0*1/32
=128+64+8+2+0,5+0,125+0,063

 
   
 
Этот сайт был создан бесплатно с помощью homepage-konstruktor.ru. Хотите тоже свой сайт?
Зарегистрироваться бесплатно