CAD w elektrotechnice

CAD w elektrotechnice

Metody wspomagania komputerowego to szeroka kategoria metod i technik komputerowych wykorzystywanych w praktyce inżynierskiej, między innymi w pracach związanych z weryfikacją pomysłów, projektowaniem, produkcją oraz eksploatacją urządzeń. Do metod komputerowych można zaliczyć techniki komputerowego wspomagania decyzji, projektowania i wytwarzania. Jednakże obecnie coraz trudniej czytelnie nakreślić jasne granice między poszczególnymi zastosowaniami wspomagania komputerowego. Związane jest to z powszechnym dostępem do specjalistycznego oprogramowania komputerów osobistych i przemysłowych (w tym darmowego oprogramowania do symulacji komputerowej) oraz do stosunkowo tanich układów programowalnych, w tym systemów wbudowanych.

Na potrzeby niniejszej pracy przyjęto, że modelowanie matematyczne można zdefiniować jako określenie hipotetycznego zachowania się obiektu rzeczywistego na podstawie zachowania się struktury zastępczej zwanej modelem matematycznym. Przy czym model matematyczny jest zestawem równań opisujących modelowane zjawiska (matematycznie zapisane związki między zmiennymi) wraz z ich odpowiednio dobranymi parametrami odwzorowującymi rzeczywistość z dostateczną (akceptowalną) dokładnością. Modelowanie matematyczne jest również nazywane symulacją komputerową, przy czym modelowanie matematyczne zazwyczaj ma szersze znaczenie niż symulacja.

W pojęciu modelowania matematycznego mieszczą się wszystkie zastosowania modeli matematycznych. Natomiast pod pojęciem symulacji komputerowej zazwyczaj rozumie się analizy związane ze stanami dynamicznymi (tj. modelowanie zjawisk zmiennych w czasie). Ponadto pod pojęciem symulacji komputerowej mieści się także problematyka związana z praktycznym przeprowadzeniem obliczeń komputerowych, w tym na przykład problem zapisu modelu matematycznego w odpowiednim języku programowania. W dalszej części książki pojęcia modelowania matematycznego i symulacji komputerowej będą stosowane zamiennie, chyba że zostanie to wyraźnie rozdzielone. Ważną częścią modelowania matematycznego, a w konsekwencji symulacji komputerowej, jest identyfikacja modelu matematycznego (lub inaczej identyfikacja procesu znana z teorii automatyki). Identyfikacja modelu to zestaw czynności mających na celu odnalezienie odpowiedniej matematycznej reprezentacji rzeczywistego procesu (zjawiska, układu lub maszyny). Identyfikacja polega na odszukaniu (z wykorzystaniem odpowiednich metod i narzędzi) zależności pomiędzy rzeczywistymi zmiennymi i zobrazowaniu ich w modelu matematycznym. Poszukuje się jakościowej i ilościowej zgodności modelu. Zgodność jakościową rozumie się jako zgodność modelu z rzeczywistością co do typu poszukiwanych zależności (np. liniowe, kwadratowe, statyczne, dynamiczne), a zgodność ilościową rozumie się jako zgodność modelu z rzeczywistością co do wartości liczbowych (parametrów poszukiwanych zależności).

CAD w elektrotechnice

Węższym pojęciem w stosunku do identyfikacji modelu jest estymacja parametrów modelu matematycznego (lub w skrócie estymacja). Estymacja parametrów jest procesem (zestawem metod i narzędzi) odszukania odpowiednich wartości parametrów znanego (przyjętego, założonego w procesie modelowania) modelu matematycznego na podstawie przeprowadzonego eksperymentu. Estymacja parametrów jest więc jedynie identyfikacją ilościową (tj. odszukaniem takich parametrów modelu, które w zadowalający sposób zbliżą wynik modelowania do rzeczywistości). Do estymacji zazwyczaj nie zalicza się wyznaczenia parametrów na podstawie danych katalogowych (konstrukcyjnych).

Jako przykład wykorzystania metod komputerowych obrazujący znaczenie modelowania matematycznego można podać proces projektowania (doboru) układu regulacji.   Proces ten można podzielić na następujące etapy:

(1) opracowanie koncepcji układu regulacji, (2) zbieranie danych i założeń projektowych, (3) weryfikację koncepcji, (4) dobór nastawień regulatora, (5) testowanie opracowanego rozwiązania, (6) wykonanie gotowego regulatora.

W każdym z wyżej wymienionych etapów możliwe jest wykorzystanie technik komputerowych ze szczególnym uwzględnieniem modelowania matematycznego. Etap pierwszy, związany z opracowaniem koncepcji układu regulacji, możne być nazywany stadium wykonalności układu regulacji. Dotyczy on zazwyczaj nowej koncepcji, wcześniej nieistniejącej lub niestosowanej w danym przypadku. Etap ten jest raczej domeną badań naukowych niż przemysłowych i wymaga zazwyczaj bardzo szerokiego podejścia analitycznego. Związane są z nim wstępne badania naukowe mające na celu potwierdzenie zasadności (słuszności) koncepcji, pomysłu. 

W badaniach tych podstawową rolę odgrywa zazwyczaj modelowanie matematyczne (symulacja komputerowa) z uwagi na możliwość przeprowadzenia wielu testów dla różnych przypadków (np. różnych typów obiektów regulacji) przy stosunkowo krótkim czasie ich wykonania. Badania symulacyjne minimalizują (lub całkowicie eliminują) też ryzyko uszkodzenia obiektów materialnych (w szczególności obiektów regulacji, elementów wykonawczych) w przypadku błędu w doborze elementów analizowanego układu (w tym układu sterowania). 

Po przyjęciu struktury analizowanego układu regulacji (na podstawie wyników pierwszego etapu lub, przy jego pominięciu, na podstawie wytycznych literaturowych i doświadczenia projektanta) następuje etap związany ze zbieraniem danych i założeń projektowych. Etap ten można nazwać pewnego rodzaju inwentaryzacją elementów układu regulacji. Używając nomenklatury modelowania matematycznego, etap ten jest swoistą identyfikacją układu regulacji, przy czym w czasie identyfikacji część modelowanego procesu nie istnieje w rzeczywistości, ponieważ jest projektowana.

Na tym etapie następuje określenie struktur modeli matematycznych (ich typów) oraz są odszukiwane w katalogach lub estymowane wartości parametrów niezbędnych do przeprowadzenia dalszych kroków mających na celu odpowiednie zaprojektowanie (dobór parametrów) układu regulacji. Z punktu widzenia modelowania matematycznego etap tej jest etapem podstawowym, ponieważ błędy w nim popełnione, na przykład błędna identyfikacja modeli (co do struktury i ich parametrów), skutkują brakiem możliwości osiągnięcia celu projektu lub uzyskaniem błędnych (dalekich od oczekiwanych) rezultatów projektu. Kolejnym etapem jest weryfikacja koncepcji projektowanego układu regulacji. Etap ten czasem nie jest wymagany lub stanowi integralną część kolejnego, czwartego etapu projektowania. Można uznać, że jest on uproszczoną wersją pierwszego etapu lub inaczej pierwszym etapem przeprowadzanym dla konkretnego, zidentyfikowanego co do struktury i parametrów przypadku. Tak jak w pierwszym etapie podstawowym narzędziem jest tu modelowanie komputerowe.

Celem czwartego etapu jest odszukanie takich nastawień (parametrów) regulatora (lub szerzej całego układu regulacji), które zapewnią zadowalającą jakość regulacji. W teorii regulacji pojęcie jakości regulacji odnosi się do dowolnego układu składającego się z obiektu regulacji i regulatora. Można ją zdefiniować jako wartość pewnego założonego á priori wskaźnika (pewnej funkcji matematycznej), będącego skalarną miarą różnicy pomiędzy uzyskanym rezultatem regulacji (np. przebiegiem wielkości regulowanej) a rezultatem oczekiwanym. Wskaźnik jakości określa się zazwyczaj mianem kryterium jakości. Dla danego przypadku (tj. danego układu regulacji) proces doboru nastawień regulatora można zrealizować dwiema drogami. Pierwsza z nich polega na wykorzystaniu metod doboru parametrów regulatora znanych z literatury przedmiotu. Zazwyczaj w takim przypadku w literaturze można odszukać gotowe procedury (wzory) wiążące nastawienia regulatora z parametrami obiektu regulacji. Druga droga polega na poszukiwaniu rozwiązania optymalnego, zazwyczaj poprzez wyznaczenie ekstremum przyjętego wskaźnika jakości regulacji. W pierwszym przypadku, tj. doboru nastawień na podstawie literatury, dokonuje się testowego, symulacyjnego sprawdzenia uzyskanych rezultatów (po dobraniu parametrów zgodnie z wytycznymi). W drugim przypadku, stosując matematyczne metody optymalizacji (zazwyczaj wykonując wielokrotnie symulację zamodelowanego układu regulacji), poszukuje się takich nastawień regulatora, które zapewniają osiągnięcie ekstremum przyjętej funkcji.

Kolejnym, piątym, wymienionym etapem jest testowanie opracowanego rozwiązania w warunkach rzeczywistych lub zbliżonych do rzeczywistych. Etap ten można nazwać etapem prototypowania.

Ostatnim etapem projektowania układu regulacji jest wykonanie gotowego regulatora. Etap ten nie jest ściśle etapem projektowym. Niemniej jednak został on zasygnalizowany, ponieważ obecnie większość układów regulacji jest wykonanych w technice cyfrowej (komputerowej), tj. z wykorzystaniem w układach programowalnych modeli matematycznych układów regulacji. W tym miejscu warto nadmienić, że stosując układy programowalne, jako gotowy regulator (rozwiązanie docelowe) można wykorzystać platformę sprzętową stosowaną w prototypowaniu uzupełnioną o odpowiednie układy peryferyjne i zabezpieczające zdolne do pracy w środowisku docelowym. W celu przeprowadzenia efektywnej symulacji komputerowej (to jest takiej, która pozwoli osiągnąć założony cel modelowania matematycznego) konieczne jest odpowiednie zastosowanie techniki obliczeniowej i wykorzystanie odpowiedniego modelu. 

Odpowiedni model matematyczny to taki, który z zadowalającą dokładnością odwzoruje modelowany proces. Pożądaną dokładność można osiągnąć, stosując wiele różnych rodzajów modeli, które można klasyfikować względem różnych kryteriów znanych również z teorii elektrotechniki (np. modele statyczne i dynamiczne, ciągłe i dyskretne, liniowe i nieliniowe, stochastyczne i deterministyczne). Niemniej jednak, jedną z podstawowych kategorii podziału modeli jest znajomość (jakościowa i ilościowa) zjawisk zachodzących w modelowanym procesie (praw rządzących tymi zjawiskami), a w konsekwencji także wiedzy na temat opisu matematycznego tychże zjawisk. Modele matematyczne można zatem podzielić na trzy podstawowe typy, przy czym granice między poszczególnymi typami nie są zazwyczaj ściśle określone. Wyróżnia się modele typu „czarna skrzynka” (ang. black box), „biała skrzynka” (ang. white box) i ich połączenie – model typu „szara skrzynka”. Model typu „czarna skrzynka” jest tworzony bez znajomości praw rządzących w modelowanym procesie (obiekcie). Zakładając, że model ma na celu odwzorowanie pewnego związku pomiędzy wejściem i wyjściem modelowanego procesu (lub ściślej matematycznie, odwzorowanie zależności pomiędzy zmiennymi wejściowymi i wyjściowymi), model typu „czarna skrzynka” jest tworzony przez odszukanie (identyfikację) funkcji wiążącej wielkości wejściowe i wyjściowe, wraz z jej parametrami. Przy czym w ogólnym przypadku poszukiwana może być dowolna postać funkcji. Jednakże zazwyczaj w modelowaniu używa się funkcji możliwie ogólnych i odpowiednio dobiera sie ich parametry. Takie podejście do modelowania często występuje w przypadku systemów automatyki. Przykładem takiego podejścia może być reprezentowanie rzeczywistych urządzeń poprzez modele matematyczne wykorzystujące elementy inercyjne pierwszego lub wyższych rzędów. Innym przykładem modelu typu „czarna skrzynka” mogą być sztuczne sieci neuronowe i częściowo systemy rozmytehappy w. Przykłady modelowania z wykorzystaniem sztucznych sieci neuronowych i logiki rozmytej. Podejście takie jest stosunkowo wygodne w odniesieniu do szeroko rozumianych układów regulacji. 

Wynika to z faktu, że w teorii automatyki (regulacji automatycznej) zostały opracowane pewne zestandaryzowane procedury stosowane w projektowaniu układów regulacji dla danej klasy obiektów. Wystarczy zatem odpowiednio sklasyfikować modelowany proces (obiekt regulacji) i można wykorzystać gotową procedurę doboru regulatora.

Podstawowym problemem związanym z wykorzystaniem modeli typu „czarna skrzynka” jest odpowiednia estymacja parametrów modelu i zasadność uproszczeń stosowanych przy modelowaniu. Drugim omawianym typem jest model „białej skrzynki”, tworzony z pełną znajomością zjawisk fizycznych zachodzących w modelowanym procesie. Parametry takiego modelu, tj. opisu matematycznego modelowanych zjawisk (parametry funkcji stanowiących opis zjawisk fizycznych), wynikają z szeroko rozumianych danych konstrukcyjnych (danych materiałowych, wymiarów etc.). Wykorzystanie wiedzy o fizycznych podstawach modelowanych zjawisk upraszcza w pewnym sensie proces modelowania. Wynika to z faktu, że przyjmując, zgodnie z posiadaną wiedzą, fizyczny opis jakiegoś zjawiska (np. prawo Joule’a–Lenza jako opis skutków przepływu prądu przez przewodnik) w procesie identyfikacji modelu należy jedynie wyznaczyć parametry przyjętej zależności (dla prawa Joule’a–Lenza konieczne jest wyznaczenie tylko rezystancji przewodnika, aby z dużą dokładnością wyznaczyć moc traconą w przewodniku dla danego prądu i wydzielane w nim ciepło). Jednakże podejście takie jest zasadne tylko dla prostych zjawisk.

CAD w elektrotechnice

Z założenia model typu „biała skrzynka” powinien zawierać w swojej strukturze wszystkie matematyczne opisy (funkcje) zjawisk fizycznych występujących w modelowanym procesie. Model taki staję się więc bardzo złożony dla złożonych procesów, co utrudnia lub uniemożliwia jego analizę. Warto zauważyć, że model „białej skrzynki” jest modelem wyidealizowanym, ponieważ w procesie modelowania trudno jest uwzględnić wszystkie zjawiska i nie zawsze są dostępne wszystkie dane konstrukcyjne służące do wyznaczenia jego parametrów. Dodatkowo opis matematyczny zjawisk fizycznych sam w sobie często bywa pewnego rodzaju uproszczeniem rzeczywistości. W związku z powyższym w szeroko rozumianej elektrotechnice najczęściej stosowanym modelem jest model typu „szara skrzynka” będący rozwiązaniem pośrednim pomiędzy „czarną” i „białą skrzynką”. W modelu tym częściowo wykorzystuje się wiedzę o podstawach fizycznych modelowanych zjawisk, a jego parametry są wyznaczane, w zależności od dostępności, z danych konstrukcyjnych lub na podstawie eksperymentu, w którym jest poszukiwany związek pomiędzy zmiennymi wejściowymi i wyjściowymi. Warto również zaznaczyć, że w elektrotechnice stosuje się też podejście polegające na przekształceniu modelu „szarej skrzynki” w model „czarnej skrzynki”. Przekształcenie takie ma na celu wykorzystanie procedur (w tym metod doboru układów regulacji) przypisanych w teorii automatyki do danej klasy modeli „białej skrzynki”. 

Z uwagi na znaczenie w elektrotechnice modelu typu „szara skrzynka” poniżej przedstawiono przykładowy schemat postępowania w modelowaniu matematycznym przy wykorzystaniu takiego modelu:

(1) określenie celu modelowania,
(2) „inwentaryzacja” modelowanego procesu (obiektu) i jego otoczenia,
(3) przyjęcie założeń upraszczających,
(4) budowa modelu matematycznego,
(5) wyznaczenie parametrów modelu matematycznego,
(6) rozwiązanie modelu matematycznego (w tym określenie metody analizy, dokładności, stabilności etc.),
(7) weryfikacja modelu matematycznego,
(8) wykorzystanie modelu do osiągnięcia celu modelowania i ocena wyniku modelowania.

Pierwszym etapem powyższej procedury jest określenie celu modelowania. Ma to zasadnicze znaczenie, gdyż od założonego celu modelowania zależą kolejne etapy. Na przykład, jeżeli celem modelowania jest wyznaczenie charakterystyki statycznej, to modelowaniu nie będzie podlegał stan przejściowy obiektu. Od przyjętego celu modelowania zależy też ostateczna ocena uzyskanego wyniku obliczeń (cel modelowania musi zostać osiągnięty, aby uznać proces modelowania za udany). Choć cel modelowania może być tożsamy z postawionym zadaniem projektowym, jednakże, dla zwiększenia przejrzystości całego procesu, cel modelowania oprócz konkretnego zadania (np. dobór nastawień regulatora) powinien obejmować dodatkowe wytyczne odnośnie do kryteriów oceny uzyskanych wyników (np. dobór nastawień regulatora zapewniający spełnienie określonej normy określającej ścisłe kryteria jakości). Im cel modelowania będzie precyzyjniej sformułowany, tym dokładniej będzie można określić, czy został on poprawnie osiągnięty. Kolejnym etapem modelowania jest „inwentaryzacja” modelowanego procesu (obiektu) i jego otoczenia. Jej celem jest rozpoznanie i zestawienie wszystkich znanych zjawisk występujących w modelowanym obiekcie i jego otoczeniu. Ważne jest, aby zestawienie to było kompletne, ponieważ bez niego nie ma możliwości „świadomego” (tj. wynikającego z racjonalnych, technicznych przesłanek) pominięcia nieistotnych zjawisk, które to pominięcie następuje w kolejnym etapie.

Ponadto, ze względu na ewentualną konieczność powtórzenia niektórych etapów (np. w wyniku negatywnej weryfikacji modelu, przy nie osiągnięciu celu modelowania), łatwiej jest modyfikować model, mając pełny spis zjawisk. Mając kompletne zestawienie zjawisk występujących w modelowanym obiekcie i jego otoczeniu, można przejść do tworzenia modelu matematycznego. Jednakże model matematyczny opisujący wszystkie znane (ujawnione w spisie) zjawiska stałby się bezużyteczny z uwagi na nieakceptowany koszt obliczeniowy. Ponadto każde prawo fizyczne (w rozumieniu modelu cząstkowego zjawiska) jest tylko pewnego rodzaju przybliżeniem rzeczywistości, w związku z tym modelowanie wszystkich zjawisk doprowadziłoby do skumulowania błędów, co uniemożliwiłoby osiągnięcie celu modelowania. Z powyższego wynika konieczność wprowadzania pewnych przybliżeń i uproszczeń lub inaczej pominięcia bądź uproszczenia zjawisk mniej istotnych dla osiągnięcia celu modelowania. W związku z tym w trzecim etapie, na podstawie analizy wyniku inwentaryzacji i w świetle przyjętego celu modelowania, przyjmuje się szereg założeń upraszczających.

W praktyce inżynierskiej związanej z elektrotechniką i z wykorzystaniem maszyn elektrycznych stosuje się wiele uproszczeń, często przyjmowanych bez pogłębionej analizy. Wśród nich można wymienić: pominięcie niejednoznaczności i nieliniowości charakterystyki magnesowania (pętli histerezy magnetycznej), pominięcie zmian parametrów w czasie (np. związanych ze zmianami temperatury), założenie sinusoidalnego charakteru przebiegów okresowych (pominięcie wyższych harmonicznych przebiegów), założenie symetrii geometrycznej i elektrycznej (np. symetryczności napięć trójfazowych), uproszczenie zjawisk mechanicznych (w tym założenie sztywności mechanicznej), pominięcie zjawisk niezwiązanych bezpośrednio z głównymi przemianami energetycznymi w modelowanym obiekcie (m.in. iskrzenia na stykach, oddziaływania pól magnetycznych z elementami konstrukcyjnymi, upływności izolacji, wpływu pól zewnętrznych na modelowany obiekt, w tym pola temperatury). W tym miejscu należy podkreślić, że błędne przyjęcie założeń upraszczających zazwyczaj prowadzi do błędnych wyników, w konsekwencji cel modelowania może nie zostać osiągnięty.

Kolejny etap to budowa modelu matematycznego. Etap ten polega na zestawieniu opisu matematycznego (funkcji) niepominiętych zjawisk oraz określenie zmiennych i parametrów, które należy obliczyć lub wyznaczyć w procesie estymacji. Może się to wiązać z koniecznością dokonywania pewnych przekształceń matematycznych. Przekształcenia modelu mogą wynikać między innymi ze stosowania określonych, specyficznych metod obliczeniowych (np. metody węzłowej) lub transformacji układów współrzędnych (np. metody symbolicznej). W konsekwencji procesu budowy modelu matematycznego mogą pojawić się dalsze uproszczenia, nieprzewidziane we wcześniejszym etapie, a wynikające bezpośrednio ze stosowanych przekształceń modelu (metod obliczeniowych). Kolejnym źródłem dalszych uproszczeń są ograniczenia zastosowanego oprogramowania (w tym jego szybkość, dokładność itd.). Należy podkreślić, że zastosowane oprogramowanie i jego możliwości wpływają na wynik modelowania, tj. możliwość osiągnięcia z zadowalającą dokładnością założonego celu modelowania.

W tym kontekście warto zwrócić uwagę na to, że obecnie wykorzystywane programy do modelowania matematycznego (programy symulacyjne), w zależności od ich stopnia rozbudowania, dają szerokie możliwości wykorzystania gotowych modeli różnych urządzeń (w odniesieniu do programu Matlab takie możliwości oferują przyborniki, np. SimPowerSystems w przypadku modelowania urządzeń elektrycznych). Gotowe modele oferowane w oprogramowaniu symulacyjnym mogą znacznie uprościć proces modelowania, jednakże projektant, korzystając z nich, może utracić kontrolę nad procesem modelowania, ponieważ nie wszystkie procedury stosowane w modelu są dostępne dla użytkownika. W związku z tym należy zachować daleko idący krytycyzm przy wykorzystaniu wyników obliczeń z wykorzystaniem takich modeli. Nie wolno zapominać o weryfikacji tychże wyników, tak jak to czyni się z modelami opracowanymi przez użytkownika, które zazwyczaj podlegają bardzo wnikliwej analizie wiarygodności. Dla uproszczenia w dalszej części gotowy model oferowany przez oprogramowanie symulacyjne nazwano modelem standardowym. Niemniej jednak warto zwrócić uwagę, że nazwa model standardowy w literaturze dotyczącej badań symulacyjnych często odnosi się do modeli o znanych i powszechnie przyjętych strukturach; przykładem modelu standardowego może być model matematyczny GENROU stosowany w badaniach generatorów synchronicznych pracujących w systemie elektroenergetycznym.

Po zbudowaniu modelu matematycznego konieczne jest jego sparametryzowanie, czyli odszukanie wartości liczbowych parametrów równań (funkcji) opisujących modelowane zjawiska. Wartości poszukiwanych parametrów mogą pochodzić z opracowanych (przeliczonych) danych katalogowych lub być wynikiem estymacji na podstawie specjalnie zaprojektowanego eksperymentu. Na przykład, wartość rezystancji przewodnika można określić na podstawie jego wymiarów geometrycznych (długość i pole przekroju poprzecznego) oraz katalogowej wartości rezystywności lub uzyskać w wyniku pomiaru metodą techniczną. Warto zauważyć, że odpowiednio dobrany eksperyment w niektórych przypadkach może gwarantować dokładniejsze wyniki (wartości parametrów modelu matematycznego) niż posługiwanie się danymi katalogowymi. Katalogi mogą zawierać dane uogólnione (np. wartości uśrednione dla całej serii urządzeń) lub nieaktualne (np. dane pochodzące z okresu produkcji urządzenia, nieuwzględniające zmian parametrów wynikających z eksploatacji lub remontów i modernizacji). Testy pomiarowe służące do estymacji powinny być tak dobrane, aby były bezpieczne i możliwe do wykonania bez specjalnego wykraczania poza dopuszczalne (przewidywane przez producenta) zakresy pracy modelowanego procesu (obiektu, urządzenia). Odpowiedni wybór testu oraz zmiennych (sygnałów pomiarowych) umożliwia wyznaczenie konkretnego poszukiwanego parametru lub wybranej części parametrów. Ograniczenie liczby jednocześnie poszukiwanych parametrów zazwyczaj prowadzi do uzyskania dokładniejszych rezultatów. W ogólnym przypadku metodyka wyznaczania parametrów może polegać na aproksymacji przebiegów pomiarowych przez funkcje wyrażone przez poszukiwane parametry budowanego modelu. W takim przypadku estymacja parametrów sprowadza się do minimalizacji pewnej funkcji (funkcji celu) opisującej różnicę pomiędzy zachowaniem się modelu matematycznego i modelowanego układu rzeczywistego.

Minimalizowana funkcja jest zazwyczaj nieliniowa i jej minimalizacja wymaga zastosowania metod numerycznych. W związku z powyższym powodzenie procesu estymacji zależy od postaci optymalizowanej funkcji oraz od skuteczności wybranego algorytmu minimalizacji. Ważną kwestią jest również obróbka danych pomiarowych (np. filtracja przebiegów pomiarowych), gdyż może ona zarówno niekorzystnie, jak i korzystnie wpłynąć na ostateczny wynik estymacji. Warto też zauważyć, że proces estymacji jest bardziej efektywny, gdy towarzyszy mu analiza wrażliwości stosowana w estymacji funkcji celu. Analiza wrażliwości może prowadzić do wyboru odpowiedniej modyfikacji funkcji celu lub mieć wpływ na wybór odpowiedniego testu pomiarowego. Wynik analizy wrażliwości daje również informację o tym, które z poszukiwanych parametrów będą łatwiejsze w estymacji (łatwiej estymowalne), tj. ich wartości po estymacji będą bardziej wiarygodne. Im funkcja celu jest bardziej wrażliwa na dany parametr, tym ten parametr jest lepiej (bardziej wiarygodnie) estymowany.

Szóstym etapem procesu modelowania jest rozwiązanie modelu matematycznego polegające na wyznaczeniu odpowiedzi modelu na zadane wymuszenie. Etap ten można traktować jako wstęp do weryfikacji modelu. Jednakże w tym etapie nacisk jest położony na określenie metody analizy modelu (metody obliczeń) pozwalającej na przeprowadzenie obliczeń założonej i uzyskiwanej w obliczeniach dokładności oraz stabilności modelu. Zasadnicze znaczenie ma tu oprogramowanie stosowane do obliczeń.

Kolejnym etapem budowy modelu jest jego weryfikacja, czyli sprawdzenie, czy opracowany model matematyczny z dobranymi parametrami spełnia założone kryteria i czy gwarantuje on osiągnięcie z akceptowalną dokładnością postawionego celu modelowania. Na podstawie przeprowadzonej weryfikacji można określić adekwatność modelu i jego zakres stosowalności. Adekwatność modelu jest rozumiana jako zdolność modelu do odtwarzania modelowanej rzeczywistości (można ją rozumieć jako dokładność odtwarzania rzeczywistości przez model matematyczny), a zakres stosowalności modelu to obszar analiz (np. zakres prędkości obrotowych, napięć zasilania), dla których wyniki uzyskane z modelu dostatecznie dobrze, tj. z założoną dokładnością, odwzorowują rzeczywistość. Weryfikacja modelu może polegać na porównaniu odpowiedzi modelu z odpowiedzią modelowanego obiektu na to samo wymuszenie.

Przy czym dane weryfikacyjne (wymuszenie i odpowiedź modelowanego obiektu) mogą być tymi samymi, które zostały wykorzystane do wyznaczenia parametrów modelu lub innymi specjalnie przygotowanymi danymi. Drugi przypadek dotyczy sytuacji, w której na etapie wyznaczania wartości parametrów (piąty etap przedstawianej procedury) są przygotowywane dwa zestawy danych. Jeden zestaw jest wykorzystywany do wyznaczenia parametrów modelu, a drugi jest zestawem weryfikacyjnym (walidacyjnym) i jest używany do szacowania zgodności modelu z rzeczywistością. Zakładając, że dane do wyznaczenia parametrów i dane do weryfikacji były różne, a model odwzorowuje oba zestawy danych ze zbliżoną dokładnością, można uznać, że model jest dobrym odzwierciedleniem rzeczywistości. Uzyskanie nieakceptowanych wyników weryfikacji modelu (odpowiedź modelu jest zbyt daleka od rzeczywistości) powoduje konieczność powtórzenia niektórych etapów modelowania. Zazwyczaj w pierwszej kolejności powtarza się etap wyznaczania parametrów. Jeżeli nie da to zadowalających rezultatów, to można powtórzyć etap budowy modelu lub zmienić przyjęte założenia upraszczające. Warto podkreślić, że częścią etapu budowy modelu może być przeprowadzenie testu pomiarowego. W związku z tym konieczność powtórzenia etapu budowy modelu może skutkować ponownym wykonaniem testów, co zazwyczaj generuje pewne koszty (np. związane z kosztem energii potrzebnej do zasilania modelowanego obiektu). Ostatnim etapem modelowania jest wykorzystanie modelu do osiągnięcia celu modelowania. Etap ten formalnie nie należy do procedury budowy modelu matematycznego, ponieważ zbudowany w nim model jest już wykorzystywany. Niemniej jednak na podstawie uzyskanych wyników można ocenić sam model i wprowadzić w nim modyfikacje, aby model stał się bardziej funkcjonalny w przyszłości. 

Ważnym aspektem modelowania matematycznego jest niepewność. Niepewność w modelowaniu jest pojęciem szerokim i może być rozumiana jako niepewność wewnętrzna i niepewność poznania. Niepewność wewnętrzna dotyczy niedeterministycznego charakteru modelowanego procesu (w tym zakłóceń i zmian cech modelowanego procesu w czasie). Natomiast niepewność poznania odnosi się do braku pewnej wiedzy o modelowanym procesie. Niepewność wewnętrzną można uwzględnić w modelu jako jeden ze składników modelowanego procesu (tj. jako jedno z modelowanych zjawisk), a niepewność poznania jest skutkiem samego procesu modelowania, czyli próby odwzorowania rzeczywistości w sposób sztuczny i przybliżony. Niepewność ta objawia się w pomiarze (szumie pomiarowy) oraz w strukturze i parametrach modelu. Każdy pomiar obarczony jest jakimś błędem, który wprost stanowi o braku pewnej wiedzy o rzeczywistej wartości mierzonej wielkości. Niepewność struktury modelu wynika z nieznajomości praw rządzących modelowanym procesem lub ich pominięciem na etapie przyjmowania założeń upraszczających. Niepewność parametrów wynika zaś z błędów popełnionych w procesie ich wyznaczania (estymacji).

Każdą z wyżej wymienionych niepewności można w jakiś sposób uwzględnić w procesie modelowania, jednakże jest to zazwyczaj kłopotliwe. Pracę własną nad pogłębieniem wiedzy z zakresu technik wspomagania komputerowego można oprzeć na pozycjach dotyczących podstaw teoretycznych i pracach związanych z aplikacjami systemów CAD w technice.

Metody CAD i AI w inżynierii elektrycznej, dr inż. Adrian Nocoń, wyd. PWN

Podobne artykuły

Podziel się ze znajomymi tym artykułem - udostępnij na FB lub wyślij e-maila korzystając z poniższych opcji:

wszystkie oferty