Критерії функціональної ефективності навчання СПР, Ентропійний КФЕ, Алгоритм екзамену за МФСВ - Інтелектуальна система селекторного розпізнавання електронограм

Ентропійний КФЕ

Для оцінки функціональної ефективності СПР широко використовуються ентропійні нформаційні критерії. Наприклад, за Шенноном такий нормований критерій має вигляд

, (4.2.1.1)

Де апріорна (безумовна) ентропія:

; (4.2.1.2)

Апостеріорна умовна ентропія, яка характеризує залишкову невизначеність після прийняття рішень:

, (4.2.1.3)

Де - апріорна ймовірність прийняття гіпотези L; p(M/L) - апостеріорна ймовірність появи події M за умови прийняття гіпотези ; М - число альтернативних гіпотез.

На практиці при оцінюванні функціональної ефективності СК, що навчається, можуть мати місце такі допущення:

    - рішення є двоальтернативним (М=2); - оскільки здатна навчатися СК слабо формалізованим процесом функціонує за умови невизначеності, то за принципом Бернуллі-Лапласа виправдано прийняття рівноймовірних гіпотез

.

Тоді критерій (4.2.1.1) з урахуванням виразів (4.2.1.2) і (4.2.1.3) набирає такий частинний вигляд:

. (4.2.1.4)

При двоальтернативному рішенні (M=2) за основну беремо гіпотезу 1 про знаходження значення ознаки розпізнавання, що контролюється, в полі допусків і як альтернативну їй гіпотезу 2. При цьому мають місце чотири можливих результати оцінки виміру ознаки (рис. 2), які характеризуються наступними ймовірностями - точнісними характеристиками: помилка першого роду - (рис. 2а); помилка другого роду - (рис. 2б); перша достовірність - (рис. 2в) і друга достовірність - (рис. 2г), де x, z виміряне та дійсне значення ознаки розпізнавання відповідно.

Розіб'ємо множину значень ознак на області та. Область включає значення, що знаходяться в допуску, а - не в допуску. Тоді можна записати

Рисунок 2 Можливі результати оцінки виміру ознак розпізнавання при М=2

Виразимо апостеріорні ймовірності через апріорні за формулою Байєса:

Та, прийнявши p(1)=p(2)=0,5, отримаємо:

(4.2.1.5)

Після підстановки (4.2.1.5) в (4.2.1.4) отримаємо формулу для обчислення КФЕ за Шенноном:

(4.2.1.6)

Розглянемо обчислення модифікації ентропійного інформаційного КФЕ за Шенноном для двоальтернативного рішення при рівноймовірних гіпотезах згідно з формулою. Оскільки інформаційний критерій є функціоналом від точнісних характеристик, то при обмеженому обсязі навчальних вибірок слід користуватися їх оцінками

; ; , (4.2.3.1)

Де, кількість подій, які означають відповідно належність та неналежність реалізацій образу контейнеру, якщо дійсно ; , кількість подій, які означають відповідно належність і неналежність реалізацій контейнеру, якщо вони насправді належать класу ; nMin мінімальний обсяг репрезентативної навчальної вибірки.

Після підстановки відповідних позначень (4.2.3.1) в (4.2.1.6), отримаємо робочу формулу для обчислення ентропійного КФЕ навчання СПР розпізнаванню реалізацій класу для двоальтернативного рішення і при рівноймовірних гіпотезах:

. (4.2.3.2)

Структурну схему алгоритму обчислення критерію (4.2.3.2) за паралельним способом оброблення навчальної матриці в процесі побудови у радіальному базисі оптимального контейнера класу подано на рис. 3. Тут наведено такі вхідні дані: Х1, Х2 еталонні двійкові вектори класів і відповідно; - навчальна матриця, яка складається з реалізацій цих класів; N=, де NM обсяг репрезентативної навчальної вибірки; D - радіус контейнера класу. Вихідні дані: Е - значення КФЕ; А, В, D1, D2 значення точнісних характеристик процессу навчання СПР: помилки першого і другого родів, перша і друга достовірності відповідно. За схемою, що розглядається, блок 5 обчислює при кожному випробуванні кодову відстань D(N) шляхом складання за модулем два вектора Х1 з поточним вектором-реалізацією X(N) і підрахунку кількості одиниць в одержаній сумі.

структурна схема обчислення інформаційного кфе

Рисунок 3 - Структурна схема обчислення інформаційного КФЕ

При кожному непарному випробуванні визначається відстань D(N) між вектором Х1 і реалізацією свого класу, а на кожному парному між вектором Х1 і реалізацією іншого класу. Обчислення коефіцієнтів К1, К2, К3 і К4 здійснюється за таким алгоритмом (блоки 6 - 12):

    А) порівняння (блок 6): якщо D(N) D (реалізація належить області класу ), то при непарному випробуванні обчислюється К1:=К1+1 (своя реалізація), а при парному К3:=К3+1 (чужа реалізація). Визначення парності або непарності реалізацій здійснюють блоки 7 і 8, які перевіряють виконання умови N/2=F, де F - ціле число. Якщо умова виконується, то випробування парне, інакше непарне. Якщо D(N)>D (реалізація не належить області класу ), то при непарному випробуванні обчислюється коефіцієнт К2:=К2+1 (своя реалізація), а при парному - К4:=К4+1 (чужа реалізація); Б) порівняння (блок 13): якщо N=NM, то обчислюються оцінки точнісних характеристик за (4.2.3.1), інакше обробляється наступна реалізація; В) при виконанні умови блока 15: (D1>0,5 і D2>0,5) обчислюється інформаційний критерій, наприклад, за формулою (4.2.1.6), інакше видається повідомлення "КФЕ не визначено".

Знання точнісних характеристик процесу навчання дозволяє визначати робочу область значень КФЕ. Виходячи із вимоги практичної цінності рішень, які приймаються СПР, на робочу область визначення функції інформаційного КФЕ необхідно вводити обмеження знизу. Так, для двоальтернативного рішення такими обмеженнями є: D1>0,5 і D2>0,5, тобто значення першої та другої достовірностей у робочій області не можуть бути менше значень відповідних помилок.

Після відповідної підстановки (4.2.3.1) у (4.2.2.1) отримаємо робочу формулу для обчислення міри Кульбака:

, (4.2.3.3)

Де r число цифр у мантисі значення критерію.

Зрозуміло, що залежно від величини числа r будуть змінюватися значення критерію (4.2.3.3), але це не впливає на положення глобального максимуму в робочій області визначення їх функцій.

Алгоритм послідовної оптимізації системи контрольних допусків. Оскільки контрольні допуски на значення ознак розпізнавання прямо впливають на геометричні параметри контейнерів класів розпізнавання, а отже і на асимптотичні точні сні характеристики СПР, то питання вибору СКД набуває важливого значення при розробці інформаційного забезпечення ІСУ. Якщо задача визначення системи нормованих (експлуатаційних) допусків на значення ознак знайшла свій розв'язок в рамках параметричного підходу математичної статистики то аналітичне розв'язання проблеми вибору СКД, дослідження її впливу на функціональну ефективність ІСУ і достовірність результатів контролю все ще не отримано.

Задача оптимізації СКД на ознаки розпізнавання є частковою задачею інформаційного синтезу, в якій необхідно визначити екстремальні значення

Де - область допустимих значень контрольних допусків. Згідно з діаграмою відображень множин, в процесі навчання оптимізація СКД здійснюється за ітераційною процедурою, в якій задіяно оператори контура.

Розглянемо такі алгоритми оптимізації СКД:

    - послідовний алгоритм, при якому контрольні допуски оптімізуються послідовно для кожної ознаки розпізнавання при фіксованих значеннях інших ознак; - паралельний алгоритм, при якому контрольні допуски оптимізуються для всіх ознак одночасно; - алгоритм оптимізації за зведеним полем допусків.

Розглянемо схему алгоритму LEARNING-1, призначеного для послідовної оптимізації контрольних допусків на ознаки розпізнавання за процедурою. Вхідні дані: масив реалізацій образу ; стартова СКД і система нормованих допусків (СНД) , яка визначає область значень відповідних контрольних допусків. Стартовий параметр поля контрольних допусків може дорівнювати половині відповідного симетричного поля нормованих допусків для і-ї ознаки за умови випадковості її значень. Попередньо для кожної ознаки визначається ціна градації, на яку змінюється і-та ознака.

Схема алгоритму послідовної оптимізації контрольних допусків така:

    1. Обнуління лічильника прогонів процедури оптимізації параметрів навчання: l:=0. 2. Для стартової системи допусків обчислюється за базовим алгоритмом навчання LEARNING значення функції. 3. Формування лічильника прогонів: l: l+1. 4. Обнуління лічильника ознак розпізнавання: і:=0. 5. Формування лічильника ознак розпізнавання: і: і+1. 6. Визначення екстремального значення параметра за процедурою, в якій внутрішній цикл оптимізації реалізує алгоритм LEARNING. 7. . 8. Якщо, то виконується пункт 5, інакше пункт 9. 9. Якщо, де - будь-яке мале позитивне число, то виконується пункт 10, інакше пункт 3. 10. і "Зупин".

Приклад реалізації алгоритму послідовної оптимізації ознак розпізнавання буде наведено в шостому розділі.

Паралельний алгоритм LEARNING-2 оптимізує параметри контейнерів класів розпізнавання за умови ітераційної процедури визначення для базового класу оптимальних контрольних допусків на всі ознаки одночасно. Вхідні дані такі самі як і для алгоритму LEARNING-1, але за область визначення параметра приймається інтервал, де ширина нормованого поля допусків. Розглянемо кроки реалізації цього алгоритму:

    1. Обнулюється лічильник кроків зміни параметра : l:=0. 2. Запускається лічильник: l:=l+1 і обчислюються нижні та верхні контрольні допуски для всіх ознак: і, відповідно. 3. Реалізується базовий алгоритм навчання. 4. Якщо, то виконується пункт 5, інакше пункт 6. 5. Якщо, то виконується пункт 2, інакше пункт 6. 6. і "ЗУПИН".
Алгоритм екзамену за МФСВ

На рис. 4 показано структурну схему алгоритму екзамену для нечіткого розбиття простору ознак розпізнавання, яке має місце у загальному випадку. Алгоритм має такі вхідні дані: масив еталонних двійкових векторів: змінна числа класів розпізнавання; цілий масив оптимальних радіусів контейнерів класів розпізнавання у кодовій відстані Хеммінга; двійкова реалізація образу, що розпізнається.

структурна схема алгоритму екзамену

Рисунок 4- Структурна схема алгоритму екзамену:

Виходом алгоритму є повідомлення про належність реалізації, що розпізнається, деякому класу із сформованого на етапі навчання алфавіту класів. На рис.4 блок 5 обчислює, починаючи з базового класу, кодову відстань між поточним еталонним вектором і реалізацією ХР. Блок 6 для кожного класу обчислює значення функції належності, яка для гіперсферичного класифікатора має вигляд

(4.3.1)

Після виходу із циклу блок 8 визначає клас, до якого належить реалізація ХР за максимальним значенням функції належності (4.3.1).

Похожие статьи




Критерії функціональної ефективності навчання СПР, Ентропійний КФЕ, Алгоритм екзамену за МФСВ - Інтелектуальна система селекторного розпізнавання електронограм

Предыдущая | Следующая