Laboratorium zaawansowanej elektroniki i automatyki 41
Przekaźnikowe układy zabezpieczenia i sygnalizacji na kolei stosowano już przez I Wojną Światową czyli ponad 100 lat temu. W Polsce przeżarta korupcją „automatyzacja” ( to nawijanie makaronu na uszy ) zadań państwa jest tragikomiczna. Na zdjęciu dworzec PKP Warszawa Gdańska. Na włączone elektroniczne wyświetlacze LCD naklejono papierowe rozkłady jazdy. Tak jest niestety na wielu polskich dworcach. PKP, PKP Intercity, TLK, POLREGIO, Przewoźnicy regionalni... Ponad 30 podmiotów.
Cały system transportowy kraju ( drogowy, kolejowy, lotniczy, miejskie ) winien być zintegrowany. Podział dawnego PKP poszedł pod prąd cywilizacji i nie ma nawet integracji usług w ramach kolei.
W Zielonych narracjach kolej ma zastąpić cześć połączeń lotniczych i zredukować korzystanie z samochodu osobowego … ale chyba nie w Polsce.
Elektronika przeciętnego samochodu ma obecnie sumarycznie ponad 2 tysiące elementów elektronicznych ale dużo więcej mają samochody elektryczne EV. Światowi producenci samochodów limitowani dostawami mikroelektroniki ograniczyli produkcje budżetowych marek dla utrzymania pełnej produkcji drogich aut z najwyższej półki. Dzięki temu wpływy koncernów spadły stosunkowo niewiele jak na duży spadek ilości sprzedanych samochodów.
Możliwe że produkcja tańszych modeli samochodów zostanie trwale ograniczona dla zmniejszenia światowej populacji samochodów czego wymaga Zielona polityka.
N.B. Kryzys choć jest patologiczny i szkodliwy stwarza jednak okazje przeprowadzenia zmian, które wobec oporu grup uprzywilejowanych, są normalnie niemożliwie do wprowadzenie. W dobrze rządzonych krajach ta szansa jest wykorzystywana.
W szkockim Glasgow w październiku 2021 rozpoczęła się dwutygodniowa konferencja klimatyczna COP26.
Klasa próżniacza opływająca w luksusy, komunikuje ludowi planety że ma mocno zacisnąć pasa.
Przewodnicząca Komisji Europejskiej Ursula Von der Leyen żąda w imieniu rządów EU - "Put a price on carbon, nature cannot pay that price anymore" czyli by nałożyć wysokie podatki na węgiel, bo natura nie może już więcej płacić tej ceny. Zatem Europa odchodzi od „prawa człowieka” do taniej energii i ma ona być droga po to by jej konsumpcja mocno spadła.
Brytyjski książę Karol stwierdził wprost, że „ogromna kampania w stylu militarnym” jest wymagana, aby przeprowadzić oczekiwaną przez elity „fundamentalną transformację gospodarczą”
Trudno powiedzieć na czym ta dziwna kampania ma polegać. Czy na zbombardowaniu polskich elektrowni węglowych czy może chińskich lub w Indiach ?
Były wiceprezydent USA Al Gore straszył kiedyś lud nadchodząca katastrofą klimatyczną a jego posiadłość zużyła przez rok blisko 1 GWh energii czyli tyle ile 500 polskich gospodarstw domowych.
W organizowanym przez ONZ wydarzeniu bierze udział ponad 25 tysięcy delegatów, w tym przywódcy większości państw świata. Na lotniskach ustawiły się długie kolejki prywatnych i rządowych odrzutowców uczestników konferencji a odrzutowce zatruły atmosferę dziesiątkami tysięcy ton CO2. 400 prywatnych awionetek na lotnisku w Glasgow i okolicznych kompletnie je zapchało.
Polski „rząd” kupił sobie za 2.5 mld złotych długodystansowe samoloty aby latać po świecie i głupkowatymi tekstami ośmieszać Polskę. Prezydent Joe Biden przyjechał z ochroną w kolumnie 85 ciężkich samochodów ! Sfera polityki to śliskie kłamstwa, hipokryzja i podwójne standardy oraz bandytyzm.
Jednocześnie EIA poinformowała że po pierwszy od 2014 roku ilość energii elektrycznej wyprodukowanej w USA z węgla wzrośnie o 22 % r/r .
W powodu wrześniowo- październikowej flauty w Europie ( śmiesznie niska sprawdzalność pokracznego „modelu” ! ) z powodu braku generacji energii przez wiatraki do łask też wrócił węgiel, który na chwile mocno zdrożał.
N.B. Zupełnie niepoważnym „modelem” inflacji posługiwał się polski NBP.
Jednocześnie politycy USA ględzą jak to strasznie niszczą klimat państwa spalające węgiel. Są niczym złodziej złapany za rękę który krzyczy że - to nie moja ręka !
Tabuny polityków, lobbystów, aktywistów, miliarderów i mediów zabraniają biednym używać węgla. Będą walczyć o klimat do ostatniej kropli ropy.
Narendra Modi deklaruje na COP26 że Indie osiągną neutralność klimatyczną w 2070 roku, czyli 20 lat po Unii Europejskiej i USA oraz 10 lat po Chinach. Greta Thunberg bardzo krytycznie oceniła szczyt klimatyczny COP26. "To impreza PR-owa z ładnymi przemówieniami"
Zespół europejskich badaczy kierowany przez badacza zrównoważonego rozwoju z Uniwersytetu w Leeds, Jefima Vogla podał że aby powstrzymać zmiany klimatu, Amerykanie muszą zmniejszyć zużycie energii o 90 %, żyć na powierzchni 640 stóp kwadratowych i latać tylko raz na 3 lata:
https://www.sciencedirect.com/science/article/pii/S0959378021000662#s0140
Zachowanie klimatu wymaga redukcji przeciętnej diety Ziemianina do 2100 kalorii dziennie. Obecnie wynosi ona ponad 3 tysiące kalorii dziennie ale są liczni biedni niedożywieni a z drugiej strony są chorobliwie otyli. Nie ma obecnie absolutnie żadnych przykładów społeczeństw niskoenergetycznych zapewniających przyzwoity standard życia swoim obywatelom. „Żaden kraj na świecie tego nie osiąga – nawet blisko” „Odkryliśmy również, że sprawiedliwsza dystrybucja dochodów ma kluczowe znaczenie dla osiągnięcia przyzwoitych standardów życia przy niskim zużyciu energii” – powiedział współautor Daniel O'Neill ze Szkoły Ziemi i Środowiska w Leeds. „Aby zmniejszyć istniejące dysproporcje w dochodach rządy mogłyby podnieść płace minimalne, zapewnić uniwersalny dochód podstawowy i wprowadzić maksymalny poziom dochodów. Potrzebujemy również znacznie wyższych podatków od wysokich dochodów i niższych podatków od niskich dochodów”.
Sprawa emisji przypomina sprawę globalnego pastwiska ( tragedia wspólności zasobów, krowy wspólne pastwisko w teorii gier ). Zawsze każdemu państwu z osobna będzie opłacało się emitować więcej CO2 i wszelkich zanieczyszczeń do wspólnej atmosfery i nie inwestować w czystą energię. ONZ jest za słabe aby narzucić wszystkim rozwiązanie.
Obecnie wysoki poziom życia oznacza bardzo dużą konsumpcje energii Per Capita. Energożerna jest przykładowo produkcja lekkich „energooszczędnych” metali do nowoczesnej, wysokomarżowej produkcji.
„Financial Times” pisze że obecnie około 85% globalnej produkcji magnezu pochodzi z Chin, w tym szczególności z miejscowości Yulin w prowincji Shaanxi. We wrześniu 2021 lokalne władze nakazały całkowite wyłączenie do końca roku około 35 z 50 zlokalizowanych na tym obszarze przestarzałych hut magnezu oraz ograniczenie produkcji w pozostałych o połowę. Głównym powodem takiego działania jest mniejsza dostępność energii elektrycznej w Chinach. Produkcja magnezu jest bardzo energochłonna. Według oceny przytoczonej przez państwowy chiński portal „Global Times”, wyprodukowanie jednej tony magnezu wymaga 35-40 megawatogodzin energii elektrycznej. Już oficjalnie wiadomo, że Europa musi się liczyć z dalszymi ograniczeniami dostaw i wysokimi cenami. „Ze względu na wyzwania dla globalnych łańcuchów dostaw, związanymi z presją na redukcję emisji dwutlenku węgla, wysoką inflacją i ograniczeniami logistycznymi, nierealistycznym byłoby oczekiwanie od Chin pełnego zaspokojenia wszystkich potrzeb europejskiego rynku” – czytamy w komentarzu redakcyjnym „Global Times”.
Drugim światowym producentem magnezu jest obecnie Rosja. Ale jeszcze na początku XXI wieku, Europa dysponowała własnymi mocami produkcyjnymi magnezu, które stopniowo zostały wygaszone ze względu na niskie wówczas koszty produkcji i dostaw z Chin. Jeszcze w połowie lat dziewięćdziesiątych XX wieku USA dostarczały połowę produkcji światowej magnezu ! USA praktycznie zlikwidowały swoją produkcje magnezu. Magnez jest zużywany przez przemysł lotniczy. Jest też stosowany w lepszych modelach samochodów i elektronice ( między innymi obudowy notebooków, kamer filmowych i video oraz aparatów fotograficznych ) ale lista jego zastosowań jest długa. Jest też surowcem dla „drogiej” chemii organicznej.
Presja cenowa w przemyśle ( inflacja PPI ) na całym świecie jest już w październiku 2021 roku najwyższa od 20 lat. Inflacja PPI w strefie euro wyniosła we wrześniu 16,0% r/r wobec 13,4% r/r w sierpniu.
Wielki eksport ( z nadwyżkami handlowymi to agresywna wojna gospodarcza ) Japonii a po niej Korei, Tajwanowi i Chinom był potrzebny w ich strategi wzrostu. Ale Chiny mimo ogromnego eksportu coraz mocniej produkują na swój rynek wewnętrzny a płace u nich dynamicznie rosną.
-Przez minione 30 lat „chińska fabryka świata” działała mocno deflacyjnie na cały glob co powodowało „niewytłumaczalnie” małą inflacje nawet słabych pieniędzy i gospodarek
-Deflacyjnie działało też ucyfrowianie globalizującej się gospodarki ale teraz jest już cyfrowa.
Efekty temperujące inflacje obu tych czynników obecnie zanikają.
Działają już mocne czynniki inflacyjne:
-”Zielona” energia na stagnującym Zachodzie ( ale i u nas ) jest efektywnie bardzo droga na tle energii z brudnych paliw kopalnych. Wiatraki i panele PV buforowane są dyspozycyjną energetyką gazową a deficytowy gaz jest drogi i trzymanie elektrowni w pogotowiu też kosztuje.
-„Zielone” rolnictwo jest circa o 40 % do połowy mniej wydajne niż uprzemysłowione co da przyszły impuls cenom żywności, jeśli zostanie wprowadzone w wielkiej skali.
-Demografia europejska sprawia że na rynek pracy wchodzą coraz mniejsze roczniki a duże roczniki przechodzą na emerytury obciążające budżety. Presja płacowa w prostych ale trudnych do automatyzacji usługach jest wysoka a nawet bardzo wysoka. Demografia jest nieubłagana i to będzie trwało dekadami. Imigranci z Afryki nie chcą pracować a żądają socjalu ! Co czwarty Francuz w wieku 18-30 lat twierdzi, że nie jest ani kobietą ani mężczyzną. Nie umie gotować. Nie weźmie do ręki młotka ani wiertarki.
-Możliwe że długo, tanie jeszcze surowce będą drożeć
Wygląda na to że globalna inflacja będzie długotrwała ale poziom inflacji będzie w krajach różny. Globalny scenariusz inflacyjny ujawni też które waluty są walutami sezonowymi a które stały się walutami stabilnymi i przeżyją wstrząsy. Po cieplarnianym okresie pozornej normalności dla kursów walut sezonowych „sky is the limit” Polska ze swoją słabą gospodarką nie może mieć silnej waluty ale to z kolei naraża na powiększoną inflacje. Potrzebna jest … optymalizacja. Optimum to jednak nie jest cud. Bliski optymalnego jest płynny kurs walutowy. Zniechęca on wielkich spekulantów do bawienia się lokalną walutą i rabowania rezerw krajów. Z rzadka można trochę interweniować.
Ratunkiem przed emisją z paliw kopalnych może być energetyka jądrowa. Agencja Bloomberg w listopadzie 2021 roku podała, że Chiny planują budowę co najmniej 150 reaktorów jądrowych o mocy sumarycznej 200 GW w następnych 15 latach za kwotę szacowaną na 370-440 mld dolarów. Zostaną największym wytwórcą energii atomowej w świecie. Inwestycje te pozwolą im zmniejszyć emisje CO2 o około 1,5 mld ton rocznie. Nowe moce zastąpią wycofywane elektrownie węglowe. Chiny budują elektrownie jądrowe sprawnie i szybko co mocno ogranicza koszty zaangażowanego kredytu. Kilowat mocy kosztuje u nich 1800-2200 dolarów, czyli poniżej 25% kosztów ostatnich projektów w USA oraz Francji ! W ramach inicjatywy integracji gospodarczej Pasa i Szlaku elektrownie jądrowe ( także małe reaktory modułowe SMR ) mogą też zbudować współpracującym państwom. Chiny nie podpisały umów międzynarodowych gwarantujących odpowiednie standardy bezpieczeństwa jądrowego ale ich reaktory pracują względnie bezpiecznie choć z uwagi na cenzurę informacji brak jest wiarygodnych danych.
Pluton uzyskany przy przetwarzaniu dużej ilości wypalonego paliwa jądrowego można użyć do budowy dużej ilości głowic termojądrowych
Kazachstan dostarcza ( 2019 ) 41% globalnej podaży Uranu, Kanada 13% a Australia 12%. W Ulba w Kazachstanie jest zakład produkujący wkłady do uranowych prętów paliwowych reaktorów energetycznych. Udział kapitału chińskiego wynosi w nim 49%. Po rozbudowie chińskiej energetyki jądrowej i zacieśnieniu współpracy między krajami część produkowanego tam Uranu zniknie z rynku światowego.
KHNP (Korea Hydro&Nuclear Power) chce zaproponować Polsce sześć bloków elektrowni ze swoimi reaktorami jądrowymi APR1400 o łącznej mocy 8,4 GW. Proponuje też przekazanie wiedzy i technologii. Niezadowolenie z tego wyrażają USA i Francja.
Wzrost gospodarczy występował w świecie zawsze ale dawniej był niezwykle powolny. Po latach pomyślnych następowały epidemie i wojny cofające społeczeństwa w rozwoju o stulecia. Uchwytny statystycznie wzrost gospodarczy datuje się w Anglii od połowy XVIII wieku. Wzrost gospodarczy Zachodu oparty był o paliwa kopalne ! Nikt nie przejmował się emisjami.
Energia elektryczna była początkowa tylko towarem dla bogatych. Turbinę parową elektrowni zasilało równolegle pracujących kilka kotłów rusztowych, których moc była mocno ograniczona. Dopiero kotły zasilane pyłem węglowym ( później olejem opałowym lub gazem ziemnym ) mogły być praktycznie dowolnie dużej mocy. W 1945 roku moc bloku energetycznego sięgnęła 50 MW, w 1950 – 200 MW, 1960 – 500 MW i po 1970 - 1500 MW. Po rozważaniach przyjęto że maksymalna ekonomicznie uzasadniona moc bloku cieplnego wynosi mniej niż 1300-1500 MW. Moc bloku z francuskim reaktorem jądrowym EPR 1630 MW jest poza tym przedziałem i to częściowo tłumaczy różne niepowodzenia z tą jednostką.
W energetyce szybko zastosowano automatykę przekaźnikową a później ciągłą.
W energetyce cieplnej bardzo silny jest efekt skali. Odkrywkowe kopalnie węgla mają małe zatrudnienie. Obsada zautomatyzowanej siłowni też nie jest duża. Ponieważ panował pogląd że tania energia służy wzrostowi gospodarczemu i dobrobytowi ( to „prawo człowieka” do energii ) rządy czyniły zabiegi aby faktycznie była tania i dekadami energia była tania.
Według Lenina „Komunizm to władza rad plus elektryfikacja” Stąd nacisk na inwestycje w przemysł ciężki i energetykę w byłym „sowieckim” bloku RWPG.
Problem potężnej emisji dwutlenku węgla i zanieczyszczeń ze spalania paliw kopalnych budził obawy naukowców już na początku XX wieku czyli ponad 100 lat wstecz.
Fault Tolerant: „W 1912 roku zwykła codzienna gazeta w kąciku naukowym pisze o tym że skutkiem spalania rocznie 2 mld ton węgla jest emisja 7 mld ton dwutlenku węgla który wywoła efekt cieplarniany odczuwalny przez wieki.
Tuż przed I Wojną w Niemczech wydobywano blisko 200 mln ton węgla.
O tym że przy spalaniu węgla do atmosfery dostaje się tablica Mendelejewa a zwłaszcza metale ciężkie a nawet aktynowce pisze się od wielu dekad.
Później rozwinęło się wydobycie ropy naftowej i gazu ziemnego. Te paliwa dla bogatych wyparły u nich węgiel. ”
Zachód przez stulecie emitował setki miliardów ton CO2 ale temat klimatyczny gwałtownie powstał gdy do garstki bogatych emitentów dołączyło 1.4 mld Chińczyków i jeszcze więcej Hindusów a ambicje rozwojowe mają kolejne miliardy biednych Ziemian.
„Zachodnie” banki już nie kredytują brudnego „górnictwa” i energetyki a ambitne kraje III Świata mogą budować elektrownię węglowe zlecając to Chinom i spalać tam miliardy ton swojego węgla.
USA przygotowują agresywną wojnę przeciw Chinom a powodów tego mają wiele a nade wszystko jest to rugowanie Zachodu z uprzywilejowanej, pasożytnicznej pozycji.
Bogaty mieszkaniec USA ( patologiczne rozwarstwienie dochodowe i majątkowe ) emituje gratis tysiące razy więcej dwutlenku CO2 niż biedak z III Świata ale koszty tego ponoszą wszyscy Ziemianie.
W obecnym europejskim modelu podatkowym bardzo wysokie podatki ( i para podatki ) od paliw silnikowych są ważnym wpływem do budżetów państw. Podatki te rosną od lat także w Polsce bowiem Socjalizm+ sporo kosztuje. Na wykresie pokazano cenę baryłki ( skrót: 1 bbl = 42 galony amerykańskie = 158,987295 l, circa ~159 litrów ) ropy naftowej w złotówkach od 1990 roku ! W 2012 roku cena ta doszła do 390 zł za baryłkę przy cenie detalicznej benzyny na stacji benzynowej około 5 zł za litr. Na koniec października 2021 roku cena ta przekroczyła 280 zł za baryłkę a na stacjach paliw przekroczyła 6 złotych za litr. Paliwa w Polsce nie są bynajmniej drogie bowiem w kilku państwach UE cena na stacji przekroczyła 2 Euro za litr przy kursie Euro 4.6 złotego ale tam podatki od paliw są dużo wyższe niż w Polsce. Przy wysokich światowych cenach ropy w 2008 roku pojawiły się zawołania Zachodu do producentów o jej obniżenie bowiem cierpią konsumenci paliw. W odpowiedzi padło – obniżcie sobie podatki ! Zwraca uwagę to że wysokie podatki i parapadatki oraz bardzo wysokie marże handlowe sztucznie nadymają PKB niektórych krajów liczony przecież w detalicznych cenach brutto.
"Mojżesz błąkał się z nami po pustyni przez 40 lat, żeby w końcu doprowadzić nas do jedynego miejsca na Bliskim Wschodzie, gdzie nie ma ropy naftowej"
Jeśli energia elektryczna dla EV ma zastąpić benzynę ( i olej napędowy ) dla samochodów to musi być obłożona potężnymi podatkami aby budżety się nie rozleciały.
W skali globalnej ropa obłożna jest największymi podatkami. Ale jeszcze wyższymi stawkami podatkowymi obłożone są w Europie alkohole a już zwłaszcza papierosy. Gigantyczne marze z handlu narkotykami zasilają kieszenie baronów narkotykowych chociaż można marihuanę czyli konopie indyjskie obłożyć podatkami wyższymi niż tytoń i legalnie sprzedawać.
Z perspektywy historycznej ropa naftowa jest obecnie bardzo tania. Na początku lat osiemdziesiątych ropa kosztowała 40 dolarów za baryłkę a do niedawna oscylowała około 60 dolarów czyli wzrost ceny wyniósł 50%. Zatem jej cena wzrastała o 1% rocznie czyli wielokrotnie mniej niż inflacja. Dekady spadającej realnie ceny ropy otwierają pole mocnych wzrostów. Przypasowując poprzednie trendy widać że ceny ropy mogą wzrosnąć kilka razy.
Czy jest możliwe faktyczne obniżenie poziomu konsumpcji czyli zużycia energii na Zachodzie ?
Przy rosnącej według wskaźnika PKB gospodarce, medianowe realne wynagrodzenia w USA stagnują od ponad 40 lat. Szeregi biednych pracujących ciągle rosną. W dziedzinie manipulacji statystyką przy PKB i CPI jest jeszcze bardzo dużo do zrobienia.
Ale trzeźwo patrząc na bogaty świat obniżenie konsumpcji mięsa per capita tylko polepszy stan zdrowia populacji i zmniejszy chorobliwą otyłość czyli polepszy komfort życia wszystkich i obniży koszty opieki zdrowotnej. Konsumpcja energii PC w USA jest dużo większa niż w Europie przy przeciętnie niższym poziomie życia. Dotacje prowadzą do kosmicznych, marnotrawnych nonsensów gdy codziennie do pracy i z niej dojeżdża się 300 km szybką koleją TGV. Bardzo tanie paliwa silnikowe w USA prowadzą do dalekich dojazdów do pracy i rozlania się przedmieść na duży obszar.
Chora peryferyjna gospodarka z tanią siła roboczą, której zawsze ma być dostatek, wytwarza chorą politykę. Media w listopadzie 2021 roku piszą że w Polsce brakuje 100-120 tysięcy zawodowych kierowców. W komentarzach internauci trzeźwo piszą że brakuje tanich kierowców i wystarczy zaoferować normalną płacę i chętni się znajdują od razu. Dla utrzymania niskich płac proponowane jest zatrudnienie kierowców z Azji. Czy to przygotowanie pod tańsze pojazdy autonomiczne ?
Politykę energetyczną Zachodu cechuje już nie kłamstwo i hipokryzja ale komizm. Gazprom od 50 lat ze wszystkich kontraktów się wywiązuje, także obecnie. Europa Zachodnia przeszła jednak na model krótkokresowy oparty o ceny spot uważając że na rynku światowym będzie za dużo gazu i to wymusi na konkurujących dostawcach bardzo niskie ceny. Obecnie media i propaganda złorzeczą że Gazprom nic nie daje na rynek spotowy i ceny szaleją. Gazprom na rynek spot niczego nie musi dawać bo nie ma żadnej umowy a dodatkowo promuje swoją giełdę. Przy okazji COP26 podano że na 249 zatankowanych - sprzedanych w 2021 roku ( styczeń - sierpień ) w USA statków z gazem LNG, 248 było z kontraktów długoterminowych. Tylko 1 był według wybłaganego kontraktu "short-term". A media uparcie kłamały że kontrakty długoterminowe są złe i odchodzą w przeszłość. „Co wolno wojewodzie, to nie tobie smrodzie”.
Tymczasem na rynku światowym gazu brakuje a w Europie jego ceny oszalały. W ślad za cenami gazu ruszyły ceny nawozów sztucznych które przełożą się na ceny żywności a nawet już przekładają.
Ropa naftowa była i jest najważniejszym towarem w światowym handlu. Jest podstawą każdej wytwórczości cywilizowanej gospodarki. Po porażce Niemców w drodze po ropę pod Stalingradem ich wojna była już przegrana. Zatem nic dziwnego że po porzuceniu przez USA wymienialności dolara na złoto stworzono mechanizm i infrastrukturę petrodolara. Ciężka chemia oparta o węgiel była zupełnie niekonkurencyjna w stosunku do chemii opartej o ropę i gaz a przy tym bardzo brudna.
Opalana gazem elektrownia parowa ( bez turbiny spalinowej ) kosztowała circa 60% tego co elektrownia na węgiel a czas jej postawienia był znacznie krótszy. Niewiele droższa od gazowej była elektrownia opalana olejem.
Rola petrochemii w gospodarkach nadal jest przeogromna !
Zdjęcia zakładów petrochemicznych często zdobiły okładki książek i katalogów firm z kręgu elektroniki i Automatic Control. Poniżej okładka książki „Proces / Industrial Instruments and Control Handbook”
Wybitny francuski matematyk Joseph Louis Lagrange m.in. wynalazł metodę mnożników Lagrangea do obliczania ekstremum warunkowego funkcji różniczkowalnej. Jest ona wykorzystywana w teorii optymalizacji ( m.in. programowanie nieliniowe ) także po dalszym rozwinięciu.
W ustach dobrego matematyka wszystko jest oczywiste. Polska miała niezłych matematyków. Profesor Franciszek Leja, Rachunek różniczkowy i całkowy, wydanie XIV 1977 ( wydanie pierwsze 1946 ! ) regułę nieoznaczonego czynnika Lagrangea objaśnia na stronach 190-191 tak że nie sposób jest tego nie zrozumieć.
Jednym z ubocznych zadań komputerów w przemyśle i infrastrukturze jest uzgodnienie i uwiarygodnienie danych bilansowych oraz wykrywanie uszkodzeń. Uzgodnienie i uwiarygodnienie może mieć duży wymiar finansowy.
N.B. Uzgadniać i uwiarygadniać można też dane statystyczne ale działania takie są niechętnie podejmowane. Przykładów jest wiele. Chyba wszystkie kraje zawyżają eksport a zaniżają import. Polski eksport do Niemiec jest większy niż ich import z Polski. Motyw jest oczywisty. Eksport powiększa PKB a import go redukuje i powiększa zagraniczny dług i deficyt budżetu a papier wszystko przyjmie z urzędów statystycznych.
Na rysunku pokazano prosty ( statyczny ! ) proces i przepływ w nim strumieni masowych ( mierzone to wektor v – jest ich 16 a v z daszkiem to jego estymata ) oraz odpowiadający mu graf bilansowy i macierz przepływów A. I tak przykładowo wiersz czwarty macierzy odpowiada urządzeniu ( jest ich 10 ) czwartemu do którego dopływa strumień 4 obrazowany liczbą 1 w kolumnie 4 oraz strumień z otoczenia ( E – Enviroment ) 14 i odpływa ( liczba -1 ) strumień 8. Wszystkie przepływy / stany są mierzone.
Generalnie macierze obrazujące przepływy jak choćby prądów w elektrotechnice – elektronice są rzadkie. Ale już wyniki wyrażeń z macierzami rzadkimi z reguły nie są rzadkie a lubią sprawiać problemy numeryczne. Generalną zaletą użycia macierzy jest prostota rozważań analitycznych.
Uwiarygodnienie polega na znalezieniu estymat przepływów ( także scałkowanych za okres ) tak aby suma kwadratów błędów z uwzględnieniem wariancji błędów ( różnica mierzonych strumieni i ich wyliczonych estymat ) pomiarów strumieni była jak najmniejsza przy uzgodnieniu czyli bilansowaniu się estymat strumieni. Diagonalna macierz Q jest macierzą kowiariancji błędów pomiarowych. Im większy jest element na przekątnej tym większy błąd ma odpowiadający sensor - przyrząd. Sformułowanie zadania ( Mach, Stanley, Downing, błędnie (!) zacytowani przez A. Niederliński ) jest trywialne:
Funkcja Lagrangea ma postać:
Wynikają z niej warunki konieczne i dostateczne na ekstremum:
Z pierwszego warunku mamy:
Po lewostronnym pomnożeniu przez A z uwzględnieniem drugiego warunku mamy:
Podstawiając zależności ostatecznie otrzymujemy rozwiązanie:
Do odwracania macierzy nadal stosuje się modyfikacje metody Gaussa dająca rozwiązania układu równań liniowych metodą kolejnych eliminacji zmiennych. Jej zastosowanie jest jednak możliwe tylko wtedy gdy pewne wyznaczniki są różne od zera. W metodzie elementów głównych niewiadome eliminuje się w porządku zależnym od wielkości elementów macierzy współczynników.
Obecnie rozmiar pamięci i szybkość procesorów komputerów PC są takie że rozmiarami macierzy nie musimy się przejmować.
Wikipedia wymienia 39 środowisk - programów do „numerical analysis” Pojęcie to jest bardzo pojemne. System do uzgadniania i uwiarygodniania danych jest jednak elementem systemu kontrolnego napisanego z reguły w C / C++.
Praca nad każdym wartościowym systemem polega na ocenie algorytmu i zbadaniu go na zestawie danych testowych. Mając pewny w działaniu algorytm i metodę jego sprawdzenia z zestawami danych szybko można napisać ostateczny program.
W wybranym środowisku Matlab macierze i wektory wygodnie mnoży się tak jak skalary a inv() odwraca kwadratową macierz a transpose() wykonuje transpozycje.
W przykładzie macierz A ma 10 wierszy i 16 kolumn czyli [10:16]
Oznaczmy macierze do pomnożenia jako 1 i 2, ilość wierszy „w” a kolumn „k”. Mamy zatem [1w:1k] *[2w:2k] Aby operacja mnożenia była w ogóle wykonalna 1k musi być równe 2w czyli bliskie sobie liczby muszą być takie same a wynik jest [1w:2k] czyli z odległych liczb macierzy do pomnożenia.
Weźmy do analizy iloczyn macierz do odwrócenia: [10:16]*[16:16]*[16*10]. Jest wykonywalny a wynik jest [10:10] czyli macierz jest kwadratowa i wstępnie da się odwrócić ale o uwarunkowaniu na razie nie wiemy.
Aby kończące całe wyrażenie miało sens V musi być wektorem pionowym [16:1] a iloczyn AV będzie wektorem pionowym [10:1], który może być lewostronnie pomnożony przez odwrócona macierz. Ve ( e jak estymacja czyli odpowiednik daszka ) też musi być wektorem pionowym.
W Matlab wektor ( jak wektory b i e ) jest jednak poziomy i stąd inna postać V i Ve oraz ich inicjalizacji danymi. Ponumerowanych krawędzi grafu jest 16. Każda zaczyna się w węźle b(i) (b – begin) i kończy w węźle e ( e – end ) ale dla Enviroment (otoczenie) jest wyróżniające Zero. Jak widać stworzenie macierzy A jest bardzo proste. Jako przepływy ( lub stany ) V dano na początek testowe liczby naturalne i zerowe błędy pomiaru. Iloczyn A * V pokazuje niezbilansowanie każdego węzła. Z idealnymi danymi musi być ono zerowe co łatwo pozwala nam sprawdzić poprawność danych w A i V oraz ich mnożenie.
Wystarczy że linii A * V NIE zakończymy średnikiem a w podoknie „Command Windows” głównego okna otrzymamy wydruk pionowego 10 elementowego wektora równego zero. Wystarczy jakikolwiek błąd w danych i algorytmie nie będzie zera ! Dla tych idealnych danych Ve powinno być równe V i jest. Możliwości graficzne Matlaba są duże. Wystarczy napisać imshow(A) i/lub imshow(Q) ( ale o diagonali wartości 1) aby zobaczyć 1 jako pixele w prostokącie / kwadracie małego obrazka macierzy.
%Uzgadnianie i uwiarygodnianie przy pelnej informacji pomiarowej.Dla niepelnej informacji jest UzgadnianieNIP.m
N=16; W=10; t=1:1:N; b=t; e=t; A=zeros(W,N); Q=zeros(N,N); V=zeros(N,1); Ve=zeros(N,1);
b=[0 1 2 3 3 3 3 4 6 7 8 9 1 0 5 10];
e=[1 2 3 4 5 6 7 8 9 10 0 0 0 4 0 0];
V=[10; 10; 10; 1; 2; 3; 4; 2; 3; 4; 2; 3; 1; 1; 2; 4 ]; % 13 przepływ wynosi 0 czyli ma błąd pomiaru !
for i=1:N
if b(i)>0 A(b(i),i)=-1 ; end;
if e(i)>0 A(e(i),i)=1 ; end;
Q(i,i)=0.1; %Kowariancje są wzgledne. Im wieksze tym gorszy pomiar. Mozna skopiowac wektor
end
Q(13,13)=1;
Ve=V-Q*(transpose(A)*inv(A*Q*transpose(A))*(A*V))
plot(t,V,'bd',t,Ve,'rd'); grid;
title('Uzgadnianie i uwiarygodnianie przy pelnej informacji pomiarowej ');
%imshow(Q); imshow(A);
%I=imread('ic.tif'); imshow(I); I=phantom(256); imshow(I);
Strumień do Enviroment - atmosfery 13 jest zerowy ale załóżmy że sensor błędnie mierzy 1.
Dla jednakowej kowiariancji błędów wszystkich 16 pomiarów równej 0.1 estymowany przepływ 13 wynosi 0.5815 a pozostałe są dość bliskie idealnym. Podejrzewając że sensor 13 ma duży błąd po zwiększeniu kowariancji Q(13,13)=1 estymata przepływu 13 robi się 0.122 a pozostałe są bliskie idealnej wartości. Dane są idealnie uzgodnione bowiem A * Ve jest zawsze wektorem zerowym.
Na wykresie pokazano czerwonymi i niebieskimi diamencikami V i Ve. Poza przepływami 1 i 13 one się praktycznie pokrywają ! Najmocniej zaburzony jest przepływ 1 jako że wraz z błędnie mierzonym przepływem 13 związane są razem z węzłem 1.
Kowariancje mają wartości wyłącznie względne ( to względne nie - dokładności pomiarów ) jako że macierz Q w wyniku estymacji jest raz w iloczynie a następnie w odwróconym iloczynie trzech macierzy. Eksperyment numeryczny to potwierdza.
MSD dali też też rozwiązanie do Uzgodnienie, uwiarygodnienie i rozszerzenie danych bilansowych w przypadku niepełnej informacji pomiarowej. Oczywiście dalej mnożniki Lagrangea ale trzeba wydzielić podgraf przepływów pomiarowo niedostępnych. Algorytm jest bardziej skomplikowany ale jego omawianie nie daje nowej wartości dodanej.
Wykorzystując cechy macierzy Q i A obliczenia ( bez tworzenia A i Q ) w docelowym tekście w C można przeprowadzić o wiele oszczędniej czyli szybciej ale powstaje pytanie czy dla niewielkich zadań na dobrym procesorze czas 100 usec jest dużo lepszy niż 1 msec ?
Nawet nietrywialny Import i Eksport danych do Matlaba jest bardzo wygodny. I=imread('ic.tif') wczyta nam do macierzy I obrazek z podanego pliku z maską układu scalonego.
Nawet testowanie tomograficznej rekonstrukcji obrazu z projekcji jest proste.
Algorytmy to „inteligencja” czyli mózg programu. Nie sprawdzenie przydatności algorytmu może położyć cały ambitny projekt. Toteż robi się programy które w gruncie rzeczy robią rzeczy trywialne ( nawijanie makaronu na uszy ) i nie mają „mózgu”
To uzgadnianie i uwiarygodnianie danych pozornie nie jest trudne. Autor zadał sobie trud i zaprogramował zaproponowany iteracyjny algorytm który podała osoba krytykująca taką „niepotrzebną komplikacje” Algorytm ten był rozbieżny i krytykant próbujący go ulepszać nic nie wskórał.
Użyteczny algorytm dobrze zaplanuje daleką podróż samochodem elektrycznym EV z ładowaniem lub ładowaniami akumulatora. Kryterium może być czas całej podróży uwzględniający ryzyka wynikające z rozkładu czasów oczekiwania na ładowanie na stacjach. Trzeba zbierać historyczne dane ze stacji a model musi predykować sytuacje dla dni powszednich i świątecznych. Bez takiego algorytmu użyteczność samochodu elektrycznego w dalekiej podróży jest mocno dyskusyjna.
Algorytm może też optymalizować ( manipulacja składem koszyka CPI z uwzględnieniem przepływów w gospodarce i substytutami ) państwowe oszustwa na szacowanej inflacji + PKB ! Przy redukcji konsumpcji dla ratowania Ziemi i gatunku człowieka, trzeba prostemu, ciemnemu ludowi podać do wierzenia że gospodarka „rośnie” i jest dobrze gdy w istocie stagnuje lub się kurczy. Wszystko jest wspaniale, a kto mówi inaczej jest sabotażystą i idzie do psychuszki – narodowej i patriotycznej tak samo jak Bony. Średnia długość życia w Polsce od 6 lat nie wzrasta a ostatnio spada. Emeryci nic nie produkują a pustoszą budżet. NFZ rocznie przeznacza na leczenie stomatologiczne każdego pacjenta niecałe 52 złote ( 1.95 mld złotych ) i praktycznie pacjenci płacą za wszystko ale wielu nie stać. Próchnica, którą ma 98 % Polaków, przyczynia się do rozwoju palety chorób ogólnoustrojowych. Jak widać optymalizacja już została zastosowana i Polacy zyją krócej. Koszt 24 mld złotych zakupu śmiesznej ilości 250 czołgów Abrams pokrywa koszty leczenia stomatologicznego Polaków na 12.3 lat. Brzydko się chłopcy bawicie !
W USA można opatentować algorytm. Patent nie jest wydawany w odniesieniu do tekstu programu (kodu źródłowego) ale na „serię wykonanych czynności" czyli faktycznie algorytm. Opublikowany algorytm można zmodyfikować a nawet ulepszyć obchodząc go. Zatem lepiej go nie ujawniać i zastosować w drogim programie.
Początkowo dominowały militarne i profesjonalne zastosowanie cyfrowego przetwarzania sygnałów DSP. Pierwszy procesor DSP do telekomunikacji ( m.in. zmniejszanie echa przy długich globalnych połączeniach ) wyprodukował WE w 1979 roku wyłącznie dla swojego potężnego właściciela Bella. Pierwszy uniwersalny komercyjny procesor DSP TMS32010 otwierający rodzinę TMS320 wyprodukował w 1983 roku Texas Instruments. Procesory te miały sprzętowe mnożenie i grupę instrukcji do m.in. sprawnej realizacji filtrów oraz FFT. Spełniały też zadania szybkich konwencjonalnych procesorów. Wydajność ich jednak na tle wyspecjalizowanych jednostek ze sztywnym „programem” dla cyfrowego przetwarzania dźwięku i obrazu była bardzo słaba. W rodzinie TMS320 były jednostki dość słabe jak wymieniony pierwszy i wydajne jak drogi, zmiennoprzecinkowy 320C3X.
Znacznie dojrzalszą i wydajniejszą architekturę miały maszyny serii ADSP21XX koncernu AD od 1990 roku. Współcześnie każdy lepszy mikrokontroler 32 bitowy ma funkcje DSP.
Procesory 3202X zastosowano m.in. w amerykańskich pociskach manewrujących. Niejako z rozpędu kompleks mikroelektroniczny Zentrum Mikroelektronik Dresden (ZMD) upadłego już NRD wypuścił w 1991 roku opracowany klon U320C20FC. Zakłady NIIET w Voronezhu w Rosji jako serie 1867 produkują procesor TMS320C25 a zakłady PKK Milandr w Moskwie jako serie 1967. Rosyjskie firmy sowieckim wzorem kopiują militarne rozwiązanie USA.
Współczesna technologia DSP ma jednak zupełnie inną genezę i nie amerykańską. Ojcami jest duet Sony – Philips i europejskie firmy które stworzyły cyfrowy standard komunikacji GSM.
Podstawowym kapitałem każdej firmy są jej pracownicy. Twórcy Apple wiedzę i umiejętności posiedli w koncernie Hewlett Packard gdzie pracowali i z choinki się nie urwali.
Przetworniki A/D i D/A głównie do minikomputerów a potem mikrokomputerów były kiedyś bardzo drogie.
W 1969 roku dwóch pracowników odeszło z Fairchild Semiconductor R&D Laboratory w Palo Alto gdzie opracowywali technologie i projekty układów monolitycznych. Dołączył do nich trzeci pracownik Fairchild-a i pracownik z TRW Microelectronics. Powstała firma Precision Monolitics Inc. Fachowcy ci byli w stanie zmodyfikować i mocno udoskonalić ( przyznano patenty ) technologie i już w 1970 roku pokazali dwu układowy 10 bitowy przetwornik DAC. PMI produkował głównie przetworniki DAC i ADC oraz bardzo dokładne wzmacniacze operacyjne i instrumentalne oraz źródła napięcia odniesienia. Został w 1990 roku przejęty przez najsilniejszy z tej grupy produktów koncern Analog Devices. AD przychód 1 mld dolarów osiągnął w 1996 roku by w 2020 roku dojść do 5.8 mld z całkowitymi aktywami 21.5 mld.
Bardzo udoskonalony, rozbudowany i pozbawiony wad precyzyjny wzmacniacz uA725 Fairchilda nazwany OP07, PMI wyprodukował już w 1974 roku. Wymagana względna dokładność rezystorów i tranzystorów rośnie wraz z rozdzielczością przetworników DAC-ADC i może być szokująco wielka ale technologia była bardzo droga i jest nadal nie jest tania mimo ogromnego postępu.
Na rysunku pokazano równoważenie nieobudowanego chipa po produkcji wzmacniacza operacyjnego OP07 drogą przepuszczania przez wybrane delikatne diody Zenera Z1,2,3,4 ( na katalogowym schemacie układu nie są pokazane ) dużego prądu celem przebicia wybranych czyli zwarcia. Wpierw mierzy się napięcie niezrównoważenia chipa wzmacniacza i program wybiera diody Zenera ( to jest delikatne złącze B-E tranzystora ) do przebicia celem ustalenia proporcji oporników kolektorowych w wejściowym stopniu różnicowym.
Rozwój światowej technologii poszedł jednak inną drogą niż „Precision” wytyczoną przez PMI i naśladowców. Zamiast małej ilości ultra dokładnych ( i często trymowanych na różne sposoby w tym laserowo) elementów jest dużo mało dokładnych i bardzo tanich elementów w ADC i DAC Sigma Delta i równoważonych wzmacniaczach operacyjnych CMOS.
Amerykańska firma SoundStream użyteczny magnetofon cyfrowy skonstruowała w 1977 roku. Zastosowano przetworniki 16 bitowe Analogic MP8016 z próbkowaniem 50 KHz. 11 biegunowy eliptyczny filtr antyaliasingowy zbudowano jako bierny. Opóźnienie grupowe było koszmarne. Stosunek Sygnał / Szum wynosił 90 dB a więc był bardzo duży przy studyjnych magnetofonach gdzie sięgał 72 dB. Firma w ciągu kilku lat sprzedała 7 magnetofonów a 10 wydzierżawiła. Edycje nagrań wykonywano na mini komputerze PDP-11/60 z odpowiednim interfejsem i dwoma twardymi dyskami. Systemy takie kupił Paramount Pictures (Hollywood), RCA (New York) i niemiecki Bertelsmann . Wykonano około 200 nagrań głównie koncertów muzyki poważnej. W 1980 Digital Recording Corporation (DRC) przejął SoundStream zachowując nazwę.
Potężny wtedy duet Sony - Philips do przetwornika DAC do opracowywanego odtwarzacza CD nie mógł dać takiego przetwornika, który kosztował więcej ( a potrzebne są dwa ! ) niż planowana cena całego odtwarzacza a przetworniki DAC w nim to mały ułamek kosztu. Zastosowali w scalonym DAC innowacyjną metodę dynamicznego równoważenia prądów ( schemat już pokazano ) ale nie byli w stanie przekroczyć bariery 14 bitów toteż sięgnęli po oversampling filtrem interpolacyjnym FIR oraz cyfrowy modulator ( zawiera filtr IIR ) Sigma Delta. Z próbki 16 bitowej zrobili 4 próbki pod rząd 14 bitowe. Filtr interpolacyjny FIR oraz modulator SD scalili w wyspecjalizowanym, bardzo wydajnym systemie DSP. W taki sposób niszowa dotąd technologia DSP nagle masowo zaczęła trafiać pod strzechy. Ale DAC użyty w takim systemie może mieć dowolną dokładność ale częstotliwość próbek mocno rośnie przy spadku rozdzielczości . I tak w jakości CD z podstawową częstotliwością próbkowania 44.1 KHz zastosowanie przetwornika 1 bitowego wymaga ovesamplingu aż do ponad 10 MHz, z prostym filtrem 2 rzędu w modulatorze Sigma Delta.
Jeszcze większe problemy stwarzało stworzenie cyfrowego pliku dźwięku na CD dlatego że normatywny margines pasma przepustowego 20 KHz do zaporowego 22.05 KHz jest bardzo wąski a wymagane jest tłumienie filtru antyaliasingowego rzędu 90 dB. Mimo stosowania optymalizujących programów komputerowych i najlepszych elementów wykonanie odpowiedniego analogowego filtru antyaliasingowego było niemożliwe. Mimo zastosowania korektora fazy zniekształcenia fazy i tak były za duże. Pierwsze wyprodukowane płyty CD nie spełniały wyśrubowanych norm standardu co nie było problemem bo materiał z analogowych magnetofonów studyjnych i tak mocno nie spełniał wymagań jakości CD. Zastosowano więc w nowych cyfrowych magnetofonach próbkowanie z podwójną szybkością co złagodziło wymagania na filtr analogowy i dodatkowy filtr cyfrowy (programowy) decymujący. ADC musiał być jednak dwukrotnie szybszy.
Można zastosować analogowy modulator Sigma Delta ( modulator Sigma Delta może być cyfrowy lub analogowy co wprowadza mętlik pojęciowy ) i z dźwiękowego sygnału analogowego jakości CD wytworzyć ciąg bitów o szybkości poniżej 10 MHz. Rząd filtru FIR do bezpośredniej decymacji takiego strumienia bitów na szybkość 44.1 KHz – 16 bit musiałby sięgać dziesiątków tysięcy i był niewykonalny. Eugene Hogenauer (April 1981 "An economical class of digital filters for decimation and interpolation". IEEE Transactions on Acoustics, Speech, and Signal Processing. 29 (2): 155–162 ) opracował proste realizacyjnie klasy filtrów interpolacyjno – decymacyjnych CIS
Filtr FIR w ogólności wymaga skomplikowanego i drogiego mnożenia. Cascaded Integrator – Comb (CIC) to zoptymalizowany filtr (FIR) bez mnożenia będący kombinacją integratora i filtru COMB ( po polsku filtr grzebieniowy ) realizujący interpolacje lub decymacje dla zmiany szybkości próbkowania. O ile charakterystyka amplitudowa filtru FIR jest dowolna to dla klasy CIC jest zawsze dolnoprzepustowa ale nie jest płaska i jest opadająca.
Na rysunku pokazano interpolacje CIC. Dla decymacji wpierw jest całkowanie a potem COMB. Architektury decymacji i interpolacji są odwrotnościami.
Po wstępnej decymacji końcową decymacje i korekcje w ADC Sigma Delta wykonuje filtr FIR o charakterystyce częstotliwościowej odwrotnej do charakterystyki filtru CIS aby charakterystyka całości była idealnie płaska.
Bez tanich ADC i DAC Sigma Delta wykonanych w nowoczesnej technologii CMOS nie byłoby m.in. telefonów komórkowych.
Namiastkę telefonii komórkowej dla bogaczy w USA rozwijano od lat siedemdziesiątych ale nic nie wskazuje na to aby bez przełomowej europejskiej technologii GSM komórki zawojowały świat. Szkoda że Nokia jest cieniem swojej danej innowacyjności i sprawności. Twórcą systemu 5G są Chińczycy. Pionierem zastosowania DSP do przetwarzania sygnałów Video był niemiecki koncern ITT.
W drugiej połowie dekady lat osiemdziesiątych prosta idea ADC i DAC w implementacji Sigma Delta stała się bajecznie skomplikowana i trudna. Wraz z przyswojeniem i opanowaniem technologi DSP awansujące kraje zyskały a odstające odpadły.
Zwróćmy uwagę że procesory japońskiego NEC typu V80 i Intel 486DX z 1989 roku, oba mają po około milionie tranzystorów ale V80 był prawie dwukrotnie ( 16.5 vs 8.7 MIPS ) wydajniejszy przy niższej cenie. V80 był wykonany nowocześniejszą technologią niż konkurent.
Pod koniec XIX centrum rozwoju nauki i technologii przesunęło się z Europy do USA. Europa w dwóch bratobójczych wojnach zniszczyła swoją pozycje. Silna Japonia i Niemcy potrzebne były Ameryce w wysiłku gospodarczym Zimnej Wojny ale USA widząc niebezpieczną, nowoczesną ofensywę eksportowa Japonii i chęć ZSRR poddania się w Zimnej Wojnie ani chwili nie wahały się nad zatrzymaniem rozwoju Japonii i dogadaniem się z sowietami. W opozycji do hegemonicznego mitu kalifornijskiej doliny krzemowej stoi prosty fakt ze w Japonii produkcja pamięci conajmniej czterokrotnie przebijała USA.
Obecne Chiny są bardzo groźnym konkurentem USA.
Wszelki postęp tworzy dobrze zorganizowana i mądra praca. Negatywna selekcja kadr zabija wszelką realną modernizacje i dobrobyt. Goniący i prześcigający Zachód Japończycy, Koreańczycy a teraz Chińczycy bardzo dobrze pracowali za półdarmo. Ale Zachód a w tym USA etap modernizacji - akumulacji miał głównie w XIX wieku ale już wcześniej wziął się do pracy. W XIII wieku angielski chłop pracował około 1620 godzin rocznie a w XV wieku około 1980 godzin rocznie. Robotnik w połowie XIX wieku tyrał tam 3100-3650 godzin rocznie. Obecnie w Polsce przeciętnie pracuje się 1830 godzin rocznie czyli dużo dłużej niż na Zachodzie.
Sprawdzenie
1.Obecnie dominuje w procesorach stałoprzecinkowa binarna arytmetyka w kodzie U2 a marginalnie spotykana jest U1. Liczby ujemne w tych kodowaniach mają najstarszy bit 1. Naukowy kalkulator Windows ( Widok → Naukowy / Standardowy) operuje postacią liczb Hex, Dec, Oct i Bin. W modzie Bin jest do wyboru długość Qword 64, Dword 32, Word 16 i Byte 8. Nie podano w kalkulatorze w jakim kodzie ( U1/U2 lub inny ) są ujemne liczby binarne co sugeruje problemy. Kalkulator jest niedorobiony. Po przykładowym wpisaniu 96 (w modzie dec ) i naciśnięciu Bin ( ustawiony Byte ) mamy poprawne 1100000 ( siedem cyfr a nie osiem, nie ma wiodącego zera ) a po naciśnięciu Dec znów 96. Kalkulator ma dwu operandową operacje odejmowania „-” oraz unarny operator +/- zmieniający znak liczby w okienku.
Liczbę -96 dec kalkulator zamienia na 10100000 bin ( bajt) czemu w kodzie U2 odpowiada poprawne -96 ale z powrotem zamienia na 160 dec czyli niestety wadliwie.
-Jak sprawnie ( najmniejsza ilość operacji) skorygować na tym kalkulatorze wyniki zamiany Bin (U2)->Dec liczby ujemnej czy z najstarszym ( w pełnej długości ) bitem 1.
-Podaj funkcje logiczną kombinacji przeniesień ( dodawanie lub odejmowanie ) w stałoprzecinkowym ALU U2 odpowiadającą przepełnieniu
-Podaj funkcje logiczne dla ALU U2 z nasyceniem rezultatu czyli wyjściowo na największą liczbę dodatnią gdy poprawny wynik jest dodatni ale poza zakresem lub najmniejszą liczbę ujemną gdy poprawny wynik jest ujemny ale poza zakresem.
2.W przetwornikach ADC Sigma Delta w cyfrowym filtrze decymacyjnym CIS mogą być 3 kaskadowe integratory i po zmniejszeniu częstotliwości próbkowania trzy filtry COMB.
Aby uniknąć przepełnień już długość słowa akumulatora drugiego integratora musiałby by być spora a co dopiero w kolejnych integratorach. Stosowanie słów o długościach tysięcy bitów jest niedorzeczne i niewykonalne. Okazuje się jednak że przy kodowaniu liczb ze znakiem U2 przepełnienia integratorów ( oczywiście nie mogą być za krótkie ) w jakiś „magiczny” sposób odwracają COMB filtry i wyniki są poprawne. Można użyć dowolnych narzędzi ( na przykład do symulacji ) lub rozważyć rzecz analitycznie
-Dlaczego rezultat może być poprawny ?
-Jakie muszą być spełnione warunki aby był poprawny?
Cwiczenie.
1.Kwantyzer analogowy w ADC lub cyfrowy w DAC Sigma Delta jest tym bardziej nieliniowy im mniej jest poziomów kwantyzacji czyli bitów. Najgorsza jest sytuacja z jednym bitem. Powyżej 2 rzędu filtru nielinowa pętla z liniowym filtrem i nieliniowym kwantyzerem robi się niestabilna przy zbyt dużym sygnale co ogranicza zakres sygnału i zmniejsza dynamikę. Im mocniej zaprojektowany filtr wypiera szumy tym mniejszy jest dopuszczalny zakres sygnału i konieczne jest znalezienie optimum. Zadanie to analitycznie dla klasy filtru rozwiązał R. Plasche ( pdf). Kolejne wzmacniacze integratorów filtru swoim ewentualnym nasyceniem ( po przekroczeniu dopuszczalnego zakresu sygnału wejściowego „ADC”) zapobiegają rozwinięciu się procesu wzbudzenia pętli ( czyli zastosowano nieliniowe środki stabilizacji pętli ! ) i po zmniejszeniu sygnału wejściowego dość szybko następuje normalna praca.
W scalonym ADC Sigma Delta analogowy filtr jest z przełączanymi pojemnościami ale filtr o zbliżonej charakterystyce może być ciągły. W nieskomplikowanym układzie ( ma 34 lata ! ) badawczym filtr jest III rzędu. Stałe czasowe integratorów są regulowane potencjometrami PR a sygnały z integratorów podano trzema PR ( można dwa szeregowe z PR Jumpery zdjąć i zrobić filtr I lub nawet I rzędu ) jako wagami do komparatora jako jednobitowego kwantyzera a z niego do taktowanego zegarem przerzutnika D. Rezystor R12 przy optymalnych ustawieniach PR wprowadza Zero – Notch filtru czyli nieskończone wzmocnienie filtru przy częstotliwości ca 4 KHz czyli przy maksymalnej czułości słuchu. Sygnał cyfrowy z przerzutnika D podany do wejścia filtru zamyka pętle sprzężenia a jednocześnie dolnoprzepustowo zrekontruowany - odfiltrowany i zbuforowanyny podano do oceny na słuchawki, do oscyloskopu i do karty dźwiękowej PC pracującego z wybranymi programami. Oscyloskopem można obejrzeć na przykład nasycenie wzmacniaczy filtru przy za dużym sygnale wejściowym. Na wejście tego „ADC” sygnał podany jest z generatora lub z karty dźwiękowej. Pomiędzy filtrem I i II rzędu jest przepaść w uzyskanych parametrach ale filtr III rzędu też mocno polepsza parametry. Przy właściwym ustawieniu potencjometrów PR parametry jego ( III rzędu ) są bardzo dobre ale drogą eksperymentalną to ustawienie okazuje się praktycznie niemożliwe do znalezienia.
-Korzystając ze wszelkich narzędzi wylicz optymalne oporności wszystkich PR ( czyli zadania 1.charakterystyka filtru i 2.nieliniowa stabilizacja pętli po przesterowaniu ) aby parametry ADC były jak najlepsze to znaczy miał on z sygnałem jak najmniejsze szumy w paśmie do 20 KHz i potwierdź rezultat analizą spectrum.
-Dlaczego nie daje się znaleźć optymalnego rezultatu drogą eksperymentalną ?
2.W badaniach nowych „leków” stosuje się randomizacje, podwójnie ślepą próbę i kontrolne placebo. Uczciwa rejestracja leku wymaga całej siatki lekarzy - specjalistów z chorymi pacjentami na świecie co generuje koszta. Zebrane siecią i przetworzone dane muszą dowodzić że lek jest bezpieczny i faktycznie działa.
W ślepych próbach grono ( im więcej ludzi tym lepiej ) oceniających - odsłuchujących, obiektywnie wybiera lepsze głośniki, wzmacniacze, odtwarzacze CD-DVD, tunery, magnetofony, gramofony... Ocena sygnału Monofonicznego jest łatwiejsza / trafniejsza niż Stereofonicznego.
Słuchawki zasilane są przez regulowany opornik zawsze z tego samego wzmacniacza do którego sygnał Mono z karty dźwiękowej podano przełącznikiem bezpośrednio lub przez jeden z 3 łańcuchów 16 (!) kaskadowych wzmacniaczy operacyjnych ( 12 kostek = 3 x 4 poczwórne wzmacniacze ) połączonych jako wtórniki ( wzmocnienie wynosi 1 ) bez żadnych elementów. Wzmacniacze w trzech wybieranych łańcuchach są obiektywnie jakości podłej, średniej i dość dobrej. Oceniający ze słuchawkami na głowie siedzi tyłem i nie powinien wiedzieć czy sygnał przechodzi przez wybraną kaskadę 16 wzmacniaczy operacyjnych czy bez nich z innego źródła jak tylko z oceny dźwięku ze słuchawek. Oceniającemu podaje się kolejne próbki różnej muzyki przez różne kaskady wzmacniaczy lub bez nich i na kartce zapisują on swoje oceny.
-Wyjaśnij wyniki tego eksperymentu
-Przy jakim poziomie głośności ocena jakości dźwięku jest najlepsza ? Z czego to wynika ?
ad. "Pierwsze wyprodukowane płyty CD nie spełniały wyśrubowanych norm standardu co nie było problemem bo materiał z analogowych magnetofonów studyjnych i tak mocno nie spełniał wymagań jakości CD. "
OdpowiedzUsuńTu bym dyskutował, wszystkie płyty CD z muzyką z lat epoki 80 tych i wcześniej były zazwyczaj nagrywane poprzez cyfryzację materiału z analogowych taśm matek. Te taśmy są ciągle rarytasem i kolejni twórcy zremasteryzowanych nagrań cyfrowych jako źródło biorą taśmę analogową i tworzą nowy materiał cyfrowy. Jak taśmy nie ma no to poprawia się materiał cyfrowy lub odzyskuje analog z wzorców do toczenia winyli. To tak zgrubsza. Czyli materiał wzorcowy i analogowy np. Dla Dark Side of the Moon jest na taśmie, podobnie produkcję The Beatles itd.
Witam
UsuńIdealny S/N dla CD wynosi 96 db a dla analogowych magnetofonów studyjnych wynosił do 72 dB. To była przepaść !
To zmienia faktu że większość moich płyt CD była z takiego materiału zrobiona, szumy się usuwa bez problemu dzięki DSP
OdpowiedzUsuńWinyle też szumią, a są w modzie. Wielu twórców muzyki wraca do analogowych technik nagraniowych bo te nagrania są "ciepłe"
OdpowiedzUsuńWitam
UsuńTakie nic nie znaczące określenia jak "ciepły" używają tak zwani audiofile. Ale w testach "ślepych" wszystko co szumi i zniekształca dostaje negatywne oceny
Witam
UsuńWinyle... Stare samochody, motocykle, pistolety
Jest też wiele programów do obróbki dźwięku, które umożliwiają redukcję szumu np. ADOBE Audition
OdpowiedzUsuńWitam
UsuńAI koloruje stare filmy.Usuwa rysy z taśm filmu. Odszumia nagrania. Tylko ze jest coraz mniej początkowej treści
"... sama taśma posiada wielu zapalonych entuzjastów - w tym na najwyższych szczeblach branży - którzy do dziś odmawiają wprowadzenia cyfrowych systemów do swoich studiów. Mówiąc w skrócie, pomimo faktu wszechobecności technologii cyfrowej i jej niskiej ceny, klasyczna technologia analogowa wciąż znajduje uznanie ze względu na niezaprzeczalny charakter brzmienia, według niektórych niepodrabialny na innych systemach."
OdpowiedzUsuńhttps://www.infomusic.pl/poradnik/38765,rejestracja-analogowa-wprowadzenie-do-tasmy-i-magnetofonow-wielosladowych-cz-i
https://www.infomusic.pl/poradnik/38765,rejestracja-analogowa-wprowadzenie-do-tasmy-i-magnetofonow-wielosladowych-cz-i
OdpowiedzUsuńCiekawe informacje
Przepraszam za powtórkę
OdpowiedzUsuń"Pracuję 24-bitowo z próbkowaniem 96 kHz. Przy 192 kHz można osiągnąć lepsze rezultaty, ale jest to dość niepraktyczne ze względu na rozmiar plików. Pracowałem wcześniej na 88,2 kHz, bo ponoć z tej częstotliwości lepiej się przechodzi na finalne 44,1 kHz, ale ostatecznie to co robię w 96 kHz brzmi dla mnie optymalnie."
OdpowiedzUsuńWywiad z Alanem Parsonsem, wybitnym realizatorem. Komentuje dlaczego odszedł od rejestracji analogowej
https://estradaistudio.pl/rozmowa/32257-alan-parsons-praca-z-myszka-wydaje-mi-sie-malo-inspirujaca
Witam
UsuńCzyli jednak technologia cyfrowa jest lepsza
Jak Parsons mówi, że próbkowanie 96 kHz daje mu komfort "analogu" to wie co mówi 😀
OdpowiedzUsuńWartościowy artykuł
OdpowiedzUsuńWitam
UsuńStaram sie pisac przystepnie !
Fajnie tu u Ciebie muszę częściej tu zaglądać
OdpowiedzUsuńWitam Dzieki ! Staram sie nie przesadzac z trudnoscia !
Usuńwiele ciekawych treści tutaj.
OdpowiedzUsuńWitam Dzieki za komplement
OdpowiedzUsuńPodoba mi się ten wpis
OdpowiedzUsuńWitam. Bardzo się ciesze.
UsuńŚwietny i bardzo wartościowy wpis. Podoba mi się.
OdpowiedzUsuńWitam. Gdyby były błędy proszę podać.
UsuńDoskonałe są te artykuły. Pokazują przy okazji całą nędze tzw "polskiej nauki".
OdpowiedzUsuńWitam. Nie ma w Polsce nauki a jest pasożytnicza biurokracja.
Usuń