wtorek, 28 lutego 2023

"Slepa" prokuratura to cyngiel mafijny i dno szamba

"Slepa" prokuratura to cyngiel mafijny i dno szamba

Zbrodnicze mafie polityczne okradają Polaków i traktują Polskę jako swój łup. Zasługują na dożywocie i karę śmierci.

 Ambasada Rosji w Warszawie zajmuje nielegalnie największy obszar ze wszystkich ambasad Rosji na świecie ! Zajęli  ogromny kawał miasta w 1945 roku m.in. naprzeciw Belwederu aby triumfować i dominować. Dlaczego w świetle dzisiejszych zbrodni w Ukrainie na to pozwalamy?

 Autostrada A4 Katowice-Kraków to jedno z największych monstrualnych oszustw ciągnących się od lat dziewięćdziesiątych.
W 1997 roku katowicki Stalexport (dziś Stalexport Autostrady) otrzymał koncesję na zarządzanie autostradą A4 z Katowic do  Krakowa poprzez swoją spółkę zależną Stalexport Autostrada Małopolska. Koncesja obowiązuje 30 lat do 15 marca 2027 roku.

Pierwszą umowę koncesyjną podpisał dwa dni przed przegranymi wyborami minister Liberadzki z rządu SLD. Potem kryminalne  aneksy do umowy koncesyjnej wypaczające cały sens dawania prywatnej spółce autostrady podpisywał rząd m.in. AWS. Minister  Wąsacz z tego rządu jest obecnie szefem rady nadzorczej Stalexportu. Ostatni tajny aneks podpisywał minister rządu SLD Jan  Ryszard Kurylczyk.

Aneksów do koncesji jest sześć. Cztery aneksy podpisywał Tadeusz Syryjczyk z rządu AWS-UW. Odpowiada on za to, że Stalexport  nie został usunięty z autostrady, kiedy okazało się. że jest bankrutem bez pieniędzy na przebudowę autostrady ( to rażące naruszenie  umowy ) a potem pozwolił rozpocząć pobór opłat mimo tego, że autostrada nie została doprowadzona do standardu autostrady  płatnej. Jeden aneks, skrajnie skandaliczny finansowo i to bez kontrasygnaty ministra finansów, popisał Ryszard Kurylczyk z  SLD.
Wszyscy ministrowie transportu tolerowali pobór opłat na autostradzie, która nie spełniała wymogów autostrady płatnej. Żaden  nawet nie spróbował zdelegalizować tego faktu zmieniając ustawę o autostradach płatnych.

Tajnośc to w neokolonii Korupcja. Tajny aneks oznacza że był jakiś korupcyjny powód. Tu nie ma miejsca na utajnianie.  Stronami umowy są społeczeństwo reprezentowane przez rząd (działający w interesie tegoż społeczeństwa) i prywatna spółka.
Jądrem sprawy był zakaz rozbudowy dróg równoległych - alternatywnych. Oczywistym celem było zmuszenie do jazdy A4 i płacenie  Stalexportowi. Tak nas obywateli skorumpowane państwo okrada.
Teraz w wypowiedziach europoseł SLD Liberadzki często kłamie że Załącznik nr 8 do umowy koncesyjnej o konkurencyjnych drogach  równoległych znalazł się aneksach a nie w pierwotnej umowie podpisanej w 1997 roku, dwa dni przed przegranymi przez SLD  wyborami. To w tej umowie zostały szczegółowo opisane roboty jakich nie wolno wykonywać na drogach konkurencyjnych i co grozi  Skarbowi Państwa jeśli zdecyduje się na budowę np. Obwodnicy Zabierzowa

Teraz mafia polityczna okrada budżet na Kościółek, Ostrołęki, Agencje, Fundacje, Orleny, KGHM-y , NCBR, wille+...

Po owocach ich poznacie. Uzasadnione grube podejrzenia są co do Morawieckiego ( co to ma ciocie w Hajfie  a jego dzieci uczęszczają do żydowskich szkół ) jeśli chodzi o sankcje na ruskich oligarchów to znaczy ich obronę.
Oligarchą - bandytą   dużego formatu z najbliższego kręgu Putina jest Żyd Mosze Kantor. Ten właściciel 20% Azotów jest chyba obecnie najbardziej znanym Polakożercą, organizatorem wrogich nam konferencji i oświadczeń żądających wydumanych potężnych roszczeń na rzecz braci Eskimosów. Włosi, którzy są ponoć tacy przyjaźni dla Putina, zabrali zbrodniarzowi  11 domów. Kto ściągnął go do Polski? No,no,no? Tak! Zgadliście! Mateuszek Moradziecki jeszcze jako prezes Banku Zachodniego.  Drugie bydle to właściciel Strabagu - Olega Deripaska. Przyboczny Putina. Bardzo drogo wybudował i wyremontował za duże pieniądze setki kilometrów dróg, budynek ambasady polskiej w... Berlinie. Ma na swym koncie remont Tutek 154, tak, tak, m.in. tej ze Smoleńska. Może sobie robić dalej w Polsce złodziejskie interesy.

Sprzedaż części Lotosu przez PKN Orlen spółce Saudi Aramco nie przeszła kontroli inwestycji strategicznych nakazanych ustawowo, a służbom specjalnym nie pozwolono na ocenę zagrożenia dla bezpieczeństwa Polski. Saudi Aramco współpracuje z Rosją.
Trzy miesiące - Taką stopę zwrotu ma Saudi Aramco na biznesie z PiS.

Prokuratora pąsowego Zera nic sobie nie robi z Zawiadomień o przestępstwie z NIK !

Jeden system emerytalny dla wszystkich? Przywileje dla wybranych coraz drozsze

  Jeden system emerytalny dla wszystkich? Przywileje dla wybranych coraz drozsze
https://www.rp.pl/ubezpieczenia/art38033441-jeden-system-emerytalny-dla-wszystkich-przywileje-dla-wybranych-coraz-drozsze
"45,4 mld zł wynosi dotacja budżetowa na emerytury i renty rolników, służb mundurowych oraz sędziów i prokuratorów.
Trzy grupy zawodowe: rolnicy, służby mundurowe oraz sędziowie i prokuratorzy mają oddzielne systemy emerytalno-rentowe, niepowiązane z ZUS i systemem pracowniczym. Tak jak w Funduszu Ubezpieczeń Społecznych (z którego wypłacane są świadczenia dla byłych pracowników i przedsiębiorców) składki stanowią ponad 80 proc. pieniędzy potrzebnych na wypłatę świadczeń, tak w KRUS – mniej niż 10 proc. Świadczenia emerytalno-rentowe wypłacane przez trzy resorty: obrony, spraw wewnętrznych i sprawiedliwości tworzą zaś system zaopatrzeniowy. Emerytury i renty wypłacane są z podatków ogólnych, są częścią budżetu każdego z tych resortów. W tym roku przeznaczono na nie 25,5 mld zł, o prawie 6 mld zł więcej niż dwa lata temu.
 Ostrożnie z uprawnieniami zawodowymi

Dotacja do Kasy Rolniczego Ubezpieczenia Społecznego rośnie wolniej. W tym roku przeznaczono na nią niespełna 19,9 mld zł, a dwa lata temu – o 1,3 mld zł mniej.

– To pewnie będzie ok. 1,3 proc. PKB w tym roku. Kwota niewiele wyższa niż ta przeznaczona na świadczenie 500+. Jednak nie sama jej wysokość powinna nas skłonić do zastanowienia się nad systemem zabezpieczenia społecznego, lecz perspektywy demograficzne – uważa Kamil Sobolewski, główny ekonomista Pracodawców RP. Przypomina, że tak jak w 2014 r. przypadały 3,5 dorosłe na jednego emeryta, tak w 2050 r. ta relacja zmniejszy się o połowę: – 13 pracowników będzie musiało wytworzyć dobra i opłacić daniny, z których korzystać będzie dziesięciu emerytów, pięć osób niepracujących w wieku produkcyjnym, a także dzieci. Obecnie 25 osób wytwarza produkty dla siebie, 10 osób z różnych powodów niepracujących, w tym niepełnosprawnych oraz dla dzieci. Zmiana tych proporcji oznacza, że coraz trudniej będzie z podatków utrzymać system ubezpieczeniowy, coraz więcej osób będzie miało świadczenia minimalne w ZUS tylko dlatego, że państwo będzie je gwarantowało. Konieczność utrzymania systemu zaopatrzeniowego będzie tę trudność pogłębiała – komentuje ekonomista.
 I on, i inni ekonomiści zwracają uwagę, że w przypadku służb mundurowych oraz sędziów i prokuratorów system zaopatrzeniowy jest uprawnieniem zawodowym. Jeśli system zmieniać, to nowe zasady powinny dotyczyć osób dopiero decydujących się na służbę. Tak zresztą zrobiono przy reformie w 1999 r., jednak zmiany cofnięto. – To prawa nabyte, które dla wielu osób miały znaczenie, gdy decydowały się na służbę – dodaje Kamil Sobolewski. Uważa jednak, że powinno się zastanowić nad kształtem systemu emerytalno-rentowego ze względu na rosnące obciążenie daninami publicznymi.

– Im system ubezpieczeniowy jest bardziej powszechny, tym lepiej – uważa Łukasz Kozłowski, główny ekonomista Federacji Przedsiębiorców Polskich. Przyznaje, że zmiana obecnych oddzielnych systemów zaopatrzeniowych jest trudna: – System rolniczy jest bardzo odległy od ubezpieczeniowego. Sukcesem byłoby, gdyby większe gospodarstwa rolne zaczęły prowadzić ewidencje dochodową.
 Świadczenia rolnicze są znacząco niższe niż wypłacane w ZUS. W zeszłym roku przeciętna emerytura z KRUS wyniosła 1,4 tys. zł brutto. Świadczenia mundurowe są wyższe. Przeciętna emerytura wojskowa wyniosła 4,6 tys. zł w zeszłym roku. Wypłacona przez ZUS wyniosła 2,9 tys. zł.

W KRUS ubezpieczona jest także pewna grupa osób, które nie są rolnikami, ale wykorzystują różnicę pomiędzy wysokością składek płaconych przez rolników i pracowników. – To także należałoby sprawdzić – dodaje Łukasz Kozłowski. Przyznaje jednak, że dyskusji na temat zmian osobnych systemów emerytalno-rentowych nawet nie zaczęto. Jego zdaniem w roku wyborczym nie zainicjuje jej żadne ugrupowanie polityczne.
Jeden system

Maciej Bukowski, ekonomista SGH i prezes Fundacji WiseEuropa, uważa, że oddzielne systemy emerytalno-rentowe należy zlikwidować i włączyć je do systemu powszechnego. – Można to zrobić bez dodatkowego obciążenia finansów publicznych. Takim mechanizmem mogłoby być obliczenie kapitału początkowego, proporcjonalnego do liczby lat służby. W ten sposób wprowadzano zmiany w systemie ZUS w 1999 r. – Dodatkowo uposażenie służb mundurowych oraz sędziów i prokuratorów musiałoby być ubruttowione (czyli włączone powinny być do niego składki ubezpieczeniowe). W przypadku rolników potrzebne jest inne rozwiązanie. Zasady ubezpieczeniowe mogą być podobne do obowiązujących dla przedsiębiorców. Składki wynikałyby z wysokości osiągniętego dochodu z zaznaczeniem minimalnych kwot składek – dodaje ekonomista. Jego zdaniem upowszechnienie systemu nie stwarzałoby dodatkowych komplikacji w przypadku rolników, sędziów i prokuratorów: – W przypadku tych profesji mamy taki sam wiek emerytalny, jak w przypadku pracowników i prowadzących działalność gospodarczą. Należałoby się zastanowić, jak rozwiązać kwestie wieku zakończenia służby przez mundurowych – dodaje Maciej Bukowski.
 Zachęty do dłuższej pracy

Sławomir Koniuszy z NSZZ Policjantów uważa, że zmiany polegające na łączeniu systemów emerytalno-rentowych nie są potrzebne. – Służby mundurowe powinny mieć osobny, zaopatrzeniowy system emerytalny – uważa i dodaje, że ważne jest – i takie propozycje przedstawia związek – by wprowadzić rozwiązania, które zachęcą do dłuższej aktywności zawodowej. – Takie propozycje właśnie są wprowadzane, to dodatkowe świadczenia powiązane z długością służby – przypomina Sławomir Koniuszy. Jego zdaniem takie pomysły mogą się spotkać ze zrozumieniem pracujących i przychylnością osób płacących podatki. "

poniedziałek, 27 lutego 2023

"O upadku mieszczaństwa i miast w Polsce", czyli droga ku nedzy

"O upadku mieszczaństwa i miast w Polsce", czyli droga ku nedzy
https://www.salon24.pl/u/qqc1968/1286156,o-upadku-mieszczanstwa-i-miast-w-polsce-czyli-droga-ku-nedzy
"Choć piśmiennictwo polskie obejmuje ogromny zasób lektur ponurych i wstrząsających, to dwie szczególne w tym zakresie pozycje, dla naszej myśli społecznej w swoim czasie bardzo istotne, wypadły z rejestrów i w obiegu czytelniczym dawno przestały funkcjonować. Pierwsza z nich to wydana w 1810r. w krakowskiej drukarni Księży Pijarów praca Wawrzyńca Surowieckiego "O upadku przemysłu y miast w Polszcze", druga to opublikowane po raz pierwszy w 1888r. i potem wielokrotnie wznawiane dzieło Stanisława Szczepanowskiego "Nędza Galicji w cyfrach".

Pamiętając prolog "Monachomachii" Ignacego Krasickiego, z jego opisem typowego polskiego osiemnastowiecznego miasta: " trzy karczmy, bram cztery ułomki, klasztorów dziewięć i gdzieniegdzie domki", widzimy wprawdzie satyryczny obraz upadku, choć to przecież  zdjęcie z natury "zawołanej ziemiańskiej stolicy", ale prace Surowieckiego i Szczepanowskiego przekonują nas , że w tym wypadku satyra była nierozerwalnie sczepiona ze stanem faktycznym. Bez najmniejszej przesady. To z czym Rzeczpospolita wchodziła w fazę rozbiorów, to były takie właśnie "metropolie" - smutny szczątek wielkiego niegdyś i bogatego kraju, który dał się wydziedziczyć z praw podstawowych i za to zapłacił zgonem.

Surowiecki opisuje drogę ku zagładzie rodzimego handlu i wytwórczości, Szczepanowski rejestruje tego skutki. Porażające skutki. Dyskutując ostatnio wiele o polskim "etnosie" o jego sile i geograficznych zasięgach, zapominamy o jednym. Polskość w Rzeczpospolitej Obojga Narodów dała się wyzuć nie z terytorium, tylko z newralgicznych sfer struktury społecznej. W efekcie na ogromnej powierzchni jednego z najsilniejszych krajów świata, cała niemal władza nad handlem, wytwórczością przemysłową i obrotem pieniężnym przeszła w obce ręce. Nie było chyba drugiego takiego przypadku w spisanych dziejach cywilizowanych społeczeństw, aby jakiś naród w całości wyzbył się warstwy kupców, bankierów i przemysłowców, a tak właśnie stało się w Polsce. W kraju w którym od pewnego momentu praktycznie nie było miast zamieszkałych przez rodzimą ludność, co najwyżej w jakimś stopniu spolonizowaną. W całym ogromnym państwie , w ostatnim stuleciu jego bytu, większe ośrodki z przeważającym żywiołem narodowym dało się policzyć na palcach jednej ręki i to bez angażowania wszystkich jej zasobów. Miasta mniejsze to już widokówka z Krasickiego, zamieszkana głównie przez Żydów i Niemców, z odwiedzinami okolicznej szlachty i chłopów, przy okazji sprawy w "grodzie", albo jarmarku.

Rzeczpospolita odpowiedziała negatywnie na pytanie, czy może trwać kraj bez własnego handlu, własnego przemysłu i własnej bankowości. Nie może, choćby nie wiem jakie miał bogactwa ( nie mylić z zasobami ), choćby nie wiem jak był rozległy i zamieszkany przez patriotycznie nastawioną ludność.

Ostatni z Piastów na polskim tronie, obejmując wątłe ( nawet w stosunku do naszych obecnych granic ) dziedzictwo, zagrożone ze wszystkich stron, postawił na zagęszczenie jego struktury poprzez rozwój ośrodków miejskich i kumulację kapitału. Efekty tych wysiłków złożyły się na jego przydomek "Wielki" i zostawiły ogromny zasób ( nie mylić z bogactwem ) , dzięki któremu Polska wystartowała do swoich kilku wieków chwały, pokonując po drodze najlepiej zorganizowane państwo średniowiecznej Europy. Jeszcze długo po Kazimierzu mieszczaństwo w Polsce i oparte na tej warstwie życie gospodarcze, miały się bardzo dobrze i były prawidłowo wkomponowane w polską strukturę społeczną. Do czasu. Do czasu Unii Lubelskiej, która otworzyła przed koronnym możnowładztwem nieograniczone wydawało się możliwości na wschodzie. Po osiemdziesięciu latach, wraz z Powstaniem Chmielnickiego, które de facto położyło kres jakimkolwiek marzeniom o wielkości Rzeczpospolitej, nie było już szans, na odbudowę prawidłowej struktury społecznej. Stopiła się nieodwracalnie na "dzikich polach", pozostawiwszy po sobie smutny szczątek, w postaci upadłych miast, od linii Wisły na wschód zasiedlonych przeważnie przez zupełnie obcą ludność, nie mającą niczego do zaproponowania sprawie polskiej.

Pierwsze próby przełamania tego fatum to epoka stanisławowska, w której niewiele udało się zmienić, w życiu politycznym skończyła się upadkiem państwa, a w gospodarczym została zwieńczona wielkim krachem bankowym, który na długie lata oddalił szanse na przejście obrotu pieniężnego w polskie ręce. To wszystko opisali "na gorąco" Surowiecki i Fryderyk Skarbek, ojciec polskiej ekonomii politycznej, po matce spadkobierca tradycji toruńskiego, niemieckiego mieszczaństwa, a przy tym wielki polski patriota, wiedzący , co dla odbudowania niepodległości jest najważniejsze. Przemysł, handel, bankowość. Bo czym jest kraj pozbawiony tych atrybutów, opisał Stanisław Szczepanowski, postać tyleż wielka , co tragiczna, której trzeba będzie poświęcić więcej uwagi.
Przytoczmy tylko kilka informacji z jego pracy o galicyjskiej nędzy, z tą uwagą, że przecież to opisanie krainy, która przez całe stulecia była jednym z najbogatszych regionów nie tylko w Polsce, ale i w Europie:

1. Średnia długość życia - mężczyźni 27 lat, kobiety 28. Dla porównania: Czechy 33/37, Francja 37/39, Anglia 40/42;

2. Średnie spożycie mięsa - Galicja 10 kg na głowę, Węgry 24, Niemcy 33 , Anglia 50;

3. Dochód roczny - Galicja 51 złotych reńskich, Królestwo Polskie 91, a Anglia 450.

4. Na tysiąc rolników - w Galicji 551 sztuk bydła, na Węgrzech 760, w Rumunii 1162, w Anglii 1645.

Takich zestawień jest w tym dziele znacznie więcej i dały autorowi podstawy do tezy, że nie był w Europie w stanie wyszukać kraju, o większym od Galicji stopniu ubóstwa. I dodaje : "Galicjanin mało pracuje, bo za mało je. Nędznie się żywi bo za mało pracuje i wcześnie umiera , bo się nędznie żywi". W Galicji nie ma przemysłu i handlu, a jedyne co się rozwija to potężna biurokracja, przeżerająca 11% dochodów kraju i krępująca wszelkie formy ludzkiej aktywności. Sam Szczepanowski z wielkim początkowo sukcesem rzucił się w wir pracy nad uprzemysłowieniem tej tragicznej ziemi , ale ostatecznie poniósł klęskę, odcięty od rodzimego kapitału, uwikłany w intrygi, zdrady i spiski, z przypisaną mu hańbą malwersanta, z której nie mógł się otrząsnąć.

Takimi klęskami płacił kraj, który rozdmuchany daleko poza swoje naturalne granice, nie potrafił spalając się w "suchego przestworach oceanu" zbudować własnych miast, z własnymi mieszczanami.

Pierwszą realnie udaną industrializacją Polski był okres Królestwa Polskiego po Kongresie Wiedeńskim i temu nie zaprzeczą nawet najwięksi i najbardziej nieprzejednani wrogowie tego "ułomnego i nic nie wartego bytu", będącego przybudówką "moskiewskiego chanatu". Nie zaprzeczą, bo materialne ślady się nie zatarły. Stoją na ówczesnych fundamentach i Zduńska Wola, i Żyrardów, i Łódź, i Tomaszów Mazowiecki, i miasta Zagłębia.

Czy wyciągamy wnioski? Nie! Wkroczyliśmy na ścieżkę deindustrializacji i deagraryzacji Europy. Wyrzekamy się eksploatacji bogactw, w których Szczepanowski widział szanse na wyrwanie się ze społecznej matni. Mamy zalewać pola, z takim trudem wyrywane naturze i zalewamy kopalnie, które zabezpieczały nam dostęp do własnych źródeł energii. Wyfraczeni i syci mędrcy wyznaczają nowe limity spożywcze, które były niewystarczające nawet dla najbiedniejszego z biednych krajów w Europie. W Polsce nie mamy swojego mieszczaństwa i miast. Mamy miasta unijne i mieszczaństwo korporacyjne. To na czym nam nie zbywa, to ogromna i wciąż rosnąca rzesza urzędników i "działaczy". Tych nigdy nie zabraknie, nawet jak dzięki ich działalności szklane wieże zamienią się w "bram cztery ułomki"."

sobota, 25 lutego 2023

Laboratorium zaawansowanej elektroniki i automatyki 82

 Laboratorium zaawansowanej elektroniki i automatyki 82

 W mądrym otwarciu się Chin na świat nie było żadnej prywatyzacji. Rząd Chin zachodnim firmom sprzedawał swoją Tanią Siłę Robocza a uzyskane od nich dolary mądrze inwestował. Dało do znakomity wynik.
Po aferalnej prywatyzacji w Polsce wszystko co nowoczesne i rentowne należy do Zachodu ale czasem zostawiano polską nazwę firmy.
Dywersyjna propaganda neoliberalna grzmiała że„Kapitał nie ma narodowości” Ale jednak rządy ratowały w kryzysie swoje koncerny i teraz koncerny zmniejszając produkcje zawsze wpierw  likwidują ją na peryferiach.  Stellantis zapowiada ( luty 2023 ) zwolnienia grupowe 400 pracowników ( połowa załogi ) w należącej do koncernu fabryce silników FCA Powertrain Poland w Bielsku-Białej. Zaprzestaje produkcji dwóch z trzech modeli. Powodem jest decyzja o wprowadzeniu przez Komisję Europejską regulacji dotyczących emisji spalin silników spalinowych i spadek zamówień.  Ta fabryka silników zostanie prawdopodobnie zlikwidowana po 2025 roku -  "fabryka ma perspektywy działania do 2025 roku".  Stellantis planuje od 2030 roku przestawić się całkowicie na produkcję samochodów elektrycznych. Do tego roku wytwarzanie silników spalinowych będzie stale zmniejszane i w końcu zaniechane.
Oczywiście zbędne stały się też inne firmy w całym łańcuchu produkcyjnym.
A jeszcze w 2021 roku  roku podniecano się ogromnymi zapowiadanymi inwestycjami Stellantis.
Inflacja zmienia proporcje cen. Realne wynagrodzenia w Polsce w 2022 roku spadły ale liczone w Euro wzrosły i pewnie to nie za bardzo się zachodnim firmom podoba. Więc to i owo zlikwidują aby zdyscyplinować rozbisurmanioną neokolonie.

 Miejsca pracy w nowoczesnym przemyśle są bardzo drogie i na peryferiach raczej dalej będą tylko tanie montownie i brudna produkcja. W propagandowym programie polskiego samochodu elektrycznego Izera wkład Polski do chińskiego składaka  sprowadza się do Logo !
Spora część wypracowanego w Polsce PKB jest konsumowana przez zachodnich inwestorów. W tej mierze dane GUS i NBP są mocno zaniżone i wręcz jawnie fałszywe. Sprawa wymaga osobnego omówienia. W Polsce PNB jest znacznie mniejszy niż PKB.
Zachód czerpie korzyści materialne z pracy innych krajów na ich rzecz wygodnego, dostatniego i bezpiecznego życia.

 Najnowszą produkcyjną technologie mikroelektroniczną mają tylko Tajwan i Korea. Najnowsze fabryki kosztują już kilkadziesiąt mld dolarów. Holandia, Niemcy, Francja i Włochy zachowały swoją mikroelektronikę ale rozdzielczość ich procesów tylko śmieszy i żadnego wydajnego procesora nie produkują. Ale … w samochodzie elektrycznym najdroższy jest akumulator a po nim inverter a w nim moduł z tranzystorami IGBT lub SiC. Między innymi po to są im potrzebne własne fabryki !
Nowe fabryki mikroelektroniki powstają w Chinach. Polska swoje CEMI zlikwidowała ale Rosja i Białoruś mają swoją mikroelektronikę. Nikt w Polsce fabryki mikroelektroniki nie postawił i nie postawi. Pociąg technologi Polsce odjechał !

 Gwałtownie kryzys w upadającej PRL zaostrzyła „dolaryzacja” czyli ucieczka od drukowanej bez umiaru złotówki. Podrywanie zaufania do własnego pieniądza jest niewiarygodnie głupie i giga - szkodliwe. W związku z rozpętaną inflacją i recesją Polacy ratują się "dolaryzacją" oszczędności.

 Żydzi zajmowali się negatywnie ocenianą lichwą i bankierstwem. Byli też kupcami i rzemieślnikami. W zaborze rosyjskim byli też z innymi obcokrajowcami przemysłowcami. Gdy ucywilizował ich Napoleon stopniowo zajęli się też nauką. Polska gospodarka była za prymitywna aby pożytecznie ich potencjał wykorzystać. Przykładowo w  Nowym Jorku  Żydzi byli znakomitymi krawcami. Sanacja była zbrodnicza i głupia.
Wielu obywateli POLSKICH wyznania mojżeszowego wyjechało lub uciekło z kraju ratując życie. Nie wiadomo dlaczego wstydzimy się pochodzących z Polski Noblistów.  
1.Tadeusz Reichstein (1897-1996) urodzony we Włocławku chemik, w 1950 roku otrzymał nagrodę Nobla z medycyny i fizjologii za odkrycie kortyzonu.

2.Izaak Singer (Isaac Bashevis Singer) (1904-1991) urodzony w Leoncinie niedaleko Warszawy, w Polsce mieszkał do 1935 roku, w 1978 roku otrzymał nagrodę Nobla z literatury.

3.Józef (Joseph) Rotblat (1908-2005) urodzony w Warszawie, w 1938 roku na Uniwersytecie Warszawskim otrzymał doktorat z fizyki, dwa lata później wyjechał do Wielkiej Brytanii, w 1995 roku otrzymał pokojową nagrodę Nobla za wysiłki w celu zredukowania broni jądrowej na świecie. Józef Rotblat całe życie mówił po polsku i podkreślał, że jest Polakiem z brytyjskim paszportem. Protestował przeciwko zapisywaniu jego imienia jako „Joseph”.

4.Mieczysław Biegun (Menachem Begin) (1913-1992) urodzony w Brześciu nad Bugiem, opuścił Polskę w 1940 roku, został szóstym premierem Izraela, w 1979 roku otrzymał pokojową nagrodę Nobla za podpisanie traktatu z Egiptem.

5.Leonid Hurwicz, urodzony w 1917 roku, od 1919 roku mieszkał w Warszawie, gdzie ukończył studia prawnicze, w 1940 roku wyjechał do USA, w 2007 roku otrzymał Nagrodę Nobla z ekonomii.

6.Szymon Perski (Szimon Peres) urodzony w 1923 roku w Wiszniewie (województwo wileńskie), wyjechał z Polski w 1934 roku, został dziewiątym prezydentem Izraela, w 1994 roku otrzymał pokojową Nagrodę Nobla.

7.Jerzy Szarpak (Georges Charpak) urodzony w 1924 roku w Dąbrowicy (województwo wołyńskie), wyjechał do Francji w 1931 roku, otrzymał nagrodę Nobla z fizyki w 1992 roku.

8.Andrzej Wiktor Schally (Andrew Viktor Schally), urodzony w 1926 roku w Wilnie, syn generała Kazimierza Schally, szefa gabinetu prezydenta RP Mościckiego, po wybuchu II wojny świat. wyjechał z Polski, otrzymał nagrodę Nobla z medycyny w 1977 roku.
Schally pochodził z żydowsko-szwedzko-francusko-polskiej rodziny o nieokreślonej przynależności religijnej. Według rasowych kryteriów nazizmu był tzw. „mieszańcem” i groziła mu śmierć. Ocalał z masakry holokaustu ukrywając się w Rumunii w środowisku polskich Żydów.

9.Ronald Hoffman, urodzony w 1937 roku w Złoczowie (województwo lwowskie), wyemigrował do USA w 1949 roku, otrzymał nagrodę Nobla z chemii w 1981 roku, od 1965 roku do dzisiaj pracuje na Cornell University w USA.

10.Albert Abraham Michelson (ur. 19 grudnia 1852 w Strzelnie, zm. 9 maja 1931 w Pasadenie) – amerykański fizyk, laureat Nagrody Nobla z dziedziny fizyki w 1907 za konstrukcję interferometru.

 Obecnie w Polsce też marnuje się ogromna większość talentów ! Była sanacja a teraz jest neosanacja.

Europa się szybko starzeje. 1 stycznia 2022 mediana wieku w EU osiągnęła już 44.4 lata. W 2012 roku było to  41.9 lat. Gdy mediana przekroczy 50 lat będzie już „pozamiatane” bo jest to droga bez odwrotu.
W 1913 roku Europa wnosiła 47% światowego PKB a  w ubiegłym roku 20 %.
Europa roztrwoniła swoją pozycje w dwóch światowych wojnach.
Teraz (23.02.2023 ) Chiny widząc słabość Europy mieszają się do jej spraw i  przedstawiają swój plan zakończenia wojny w Ukrainie:
1.Poszanowanie suwerenności wszystkich państw
2.Wyrzeczenie się mentalności zimnowojennej
3.Zaprzestanie działań wojennych
4.Wznowienie rozmów pokojowych
5.Rozwiązanie kryzysu humanitarnego
6.Ochrona ludności cywilnej i jeńców wojennych
7.Zapewnienie bezpieczeństwa elektrowniom atomowym
8.Zmniejszenie ryzyka strategicznego
9.Wspieranie eksportu zboża
10.Zakończenie jednostronnych sankcji
11.Utrzymanie stabilnej produkcji i łańcuchów dostaw
12.Ułatwienie odbudowy po zakończeniu konfliktu
 
W Polsce dzietność kobiet  TFR na wsiach spadła do poziomu miastowego. Długo wieś ratowała polską demografie III RP. To głównie efekt masowego studiowania wszystkich Polek i migracji ze wsi do dużych miast lub zagranice.
Ukrainki jeszcze bardziej niż Polki wolą duże miasta. Współczynnik urbanizacji na Ukrainie jest wyższy niż w Polsce  !
Ale... starożytny Rzym też miał ujemny przyrost naturalny.. i źle skończył.
Najstarszym krajem świata jest pogrążona w długotrwałym kryzysie Japonia. Staje się obecnie cieniem swojej niedawnej potęgi naukowo – technologiczno - przemysłowej. Jej obecny udział w badaniach nad sztuczną inteligencja jest niewielki.
 Bardzo skomplikowany program obsługujący popularny Google Translate miał kiedyś milion instrukcji. Obecny samouczący się GT dający lepsze tłumaczenie ma ich 500 ! 
Na razie liczba naprawdę użytecznych zastosowań AI  jest niewielka ale cały czas rośnie.
W wojnach receptą na sukces wielokrotnie w historii  było zaskoczenie. „Bogowie wojny”, ulubieni synowie Marsa stosowali je wielokrotnie.  Totalne, absolutne, ogłupiające zaskoczonego. Pewnie jeszcze nie raz będziemy  świadkami niespodzianek w konfliktach. Widać tu znakomite zastosowanie dla AI !
 Zaskakujące było uszkodzenie gazociągów bałtyckich Nord Stream 1 i NS2 aczkolwiek prezydent Biden przecież jasno zapowiedział że NS2 nie będzie używany. Rosja i Niemcy nie chronili skutecznie gazociągów choć powinni. Rosja nie ma jednak na tyle silnych dowodów aby wystąpić przeciwko USA w ONZ. 

Zaletami sieciocentrycznej wyrzutni i rakiet  HIMARS są:
-Znaczny zasięg i świetna celność rakiet o dużej sile destrukcji
-Mobilność pozwalająca szybko oddalić się po oddaniu salwy
Wadami są:
-Zależna od pogody widoczność z powietrza odpalenia z odległości wielu kilometrów i widoczność  z kosmosu
-Podatność na uderzenie wroga
-Całkowita niesamodzielność operacyjna
-Wysoka cena wyrzutni i rakiet
Po analizie danych  z dronów, satelitów, samolotów i innych źródeł ( Internet, „podsłuch”, źródła osobowe ) dokonuje się dynamicznego wyboru celów. Tylko w sytuacji gdy niebo jest opanowane przez nasze drony  HIMARS z miejsca „ukrycia” udaje się na miejsce odpalenia rakiet i znów udaje się do miejsca ukrycia. Podróż i odpalenie rakiet musi mieć miejsce w luce informacyjnej wroga. Trzeba mieć też informacje o satelitach wroga. System kierowania musi wszelkie dostępne informacje scalić i minimalizować ryzyko zniszczenia wyrzutni i śmierci obsługi. Gdy niespodziewanie pojawiają się drony wroga trzeba je zniszczyć i zmodyfikować misje. 
Amerykańskie stanowisko kierowania  HIMARS operujących w Ukrainie prawdopodobnie znajduje się w Polsce. Sieciocentryczność jest jednocześnie zaletą i wadą. Ukraina nie ma całego rozbudowanego systemu rozpoznania. Amerykanie selektywnie realizują zadania stawiane im przez ukraińskie dowództwo sił zbrojnych. Selektywnie oznacza tu okno możliwości – trzeba pomóc „szczęściu”.
Stany Zjednoczone nad Automatyzacją Wojny pracują od lat pięćdziesiątych !
Bez doskonałego rozpoznania skuteczność ataku z HIMARS może być znikoma a zagrożenie dla wyrzutni  i żołnierzy ogromne. Brak jest informacji o tym czy system zatrudnia już AI czy używane są klasyczne programy. Tak czy owak jest tu miejsce dla AI. Optymalizacja ( funkcji celu ! ) zawsze uważana była za pogranicze AI. Już w czasie II wojny Brytyjczycy optymalizowali bombardowania  Niemiec i Francji.  

 Cenzura PRL okresu Gierka miała zatrzymywać wszelkie informacje o kredytowych zakupach na Zachodzie. Ale skuteczność tej blokady nie była duża. Ze zdumieniem dowiedzieliśmy się na przykład że za zakład „Police 2” zapłacono aż 1.8 mld franków ale jakie były łapówki za to i ile nielegalnych fortun wyrosło ! Znacznie skuteczniejsza była cenzura w III RP. Z prac Sejmowej Komisji Śledczej ds. PKN Orlen dowiedzieliśmy się jak polityczna mafia okrada Polaków. W neokolonii Tajemnica = Korupcja. „Prokuratura” i służby to mafijne cyngle i ochroniarze mafii !
W administracji firmą niskiej i średniej technologi ważne jest dla jej rentowności i perspektywy rozwoju wynegocjowanie najlepszych cen dostaw i sprzedaży. ”Tanio kupić drogo sprzedać”
Polska płaci najdrożej w świecie za  gaz importowany z USA. Murzyńskość  ? Łapówki ? Trybut imperialny dla USA ? Wstaliśmy z kolan i jesteśmy „potengom” ?  Ukryte 447 ? Obajtkom się należy kolejne 50 domów na głowę ?
Ale za wszystko od USA nie-rząd strasznie przepłaca. 
 Drogim paliwom towarzyszą drogie pozwolenia emisyjne. Cena jednego pozwolenia sięga 100 Euro.  Chronione przez głupi rząd Spółki Skarbu Państwa ( to morze synekur i pieniędzy do malwersacji !) nie potrafią rozwijać zeroemisyjnych mocy w energetyce. Zbyt wolno, zbyt późno a konkurencja zablokowana została regulacjami. Wielkie pieniądze z opłat emisyjnych zamiast być sensownie zainwestowane „rozeszły się”.
Część miliardów z opłat od CO2  rząd rozdaje przedsiębiorstwom. Zabiera pieniądze dobrym firmom i oddaje złym.  Teraz (2023 ) rozda „po uważaniu” niczym czynownik carski 5 miliardów złotych. Mają one być rozdzielone między 300 dużych firm, których wydatki na energię przekraczają 3% wartości produkcji. Korupcja, niegospodarność i przelewanie z pustego w próżne.

Artykuł „”The Paradox of Wealthy Nations’ Low Adolescent Life Satisfaction”
 https://link.springer.com/article/10.1007/s10902-022-00595-2
opisuje ciekawy paradox. Korelacja między zadowoleniem z życia dorosłych a PKB krajów jest dodatnia ale relacja  zadowolenia z życia młodzieży a PKB jest odwrotna. Wynikać to może z za dużej konkurencji wśród uczniów w bogatszych krajach.
W Polsce ta relacja  jest szczególnie silna. Jest to bardzo złe bowiem młodzież decyduje o przyszłości !
 Jakość odpowiedzi układu regulacji automatycznej na skok wartości zadanej można ocenić przy pomocy kryteriów całkowych ale też na przykład czasem narastanie odpowiedzi i jej przerzutem.
W rozdziale „Automatyczne mierzenie i testowanie półprzewodników i mikroelektroniki mocy” archiwalnego „Harmoniczne i moc bierna” dano przykłady odwzorowań zawężających w kontekście pomiarów i rozpoznawania. W rankingu siły militarnej liczba w przybliżeniu oceniająca siłę militarna zawęża wszystko co się na tą siłę składa.
Kryteria Kopenhaskie to zbiór zawężających wymagań jakie musi spełnić kandydat do Unii Europejskiej: rządy prawa, wolność, demokracja i walka z korupcją sektora publicznego. Te kryteria całkowicie  wykluczają obecnie przyjęcie Ukrainy do Unii Europejskiej.

Nagroda za aferę ! Człowiek, który był zaangażowany w aferalny „zakup” respiratorów od szemranego, skremowanego (?)  handlarza bronią dostał stanowisko członka zarządu czeskiego Unipetrolu należącego do PKN Orlen.

W NCBR trwa spóźniona o dwa miesiące kontrola CBA. Dołączy NIK i Europejski OLAF jako że środki były unijne. Konkurs „Szybka ścieżka” na najlepsze projekty innowacyjne wygrały ( 55 mln i 123 mln złotych ) dwie firmy czyli „słupy” bez żadnego dorobku. Za to z powiązaniami z mafią polityczną !  To są właśnie „badania i innowacje” w neokolonii. Ale są też inni szemrani beneficjenci miliardów. Po prostu NCBR to przepompownia pieniędzy podatników do kieszeni umocowanych politycznie aferowiczów. Służby udawały, że nic się nie stało. Jak zwykle zresztą.
Osoba która wygrała 123 mln zł z NCBR nabyła udziały w spółce, której prezesem i współudziałowcem w czasie tej transakcji był człowiek który następnie został prezesem NCBR Investment Found. 
Donald Tusk (PO): Wszędzie jest szwagier, znajomy siostry, mąż, narzeczona. Wszystko, co ich łączy to PiS, nadzwyczajna pazerność, gigantyczne awanse, nieuzasadnione dotacje. P. Czarnek mówi, że Willa plus to świetnie przygotowany program. Cela+ będzie jeszcze lepiej przygotowany!
"Cela plus" będzie programem dla tych, którzy zbudowali ten system dojenia państwa.

 W 1967 roku Volkswagen jako pierwszy w świecie w swoim samochodzie zastosował elektroniczny wtrysk paliwa Boscha.
 W 2013 roku amerykańscy naukowcy związani z przemysłem motoryzacyjnym zaczęli w niemieckich silnikach Diesla szukać nowatorskich rozwiązań dzięki którym mają one niesamowite parametry. Ale niczego nie znaleźli. W trakcie badań drogowych zauważyli, że auta bardzo mocno przekraczają dopuszczalne normy emisji ale na stanowisku badawczym wszystko było w porządku. Tak wytropiono oprogramowanie fałszujące... innowacyjnego Boscha. Były potężne wielomiliardowe kary, procesy, przepraszanie i akcje serwisowe gdy zmieniano oprogramowanie sterujące silnikiem, by emitowały tyle, ile norma wymaga choć samochód zużywał po tym więcej paliwa i miał mniejszą moc.  Kryzys kosztował niemieckie koncerny miliardy.
Niemiecka organizacja ekologiczna Deutsche Umwelthilfe (DUH) zbadała auta Volkswagena z silnikiem diesla, po akcji serwisowej i ustaliła że nadal czasem emitują dużo więcej tlenków azotu, niż im wolno. DUH postanowiła na drodze sądowej doprowadzić do unieważnienia homologacji typu. Homologacja to urzędowy dokument potwierdzający, że określony model spełnia wszystkie techniczne wymagania. Bez niego samochód nie może być dopuszczony do ruchu a po jej unieważnieniu musi być wycofany z ruchu. 
W Niemczech homologacje wydaje  Federalny Urząd Transportu Samochodowego (KBA). I właśnie przeciwko KBA do sądu administracyjnego w Szlezwiku (KBA ma siedzibę we Flensburgu) wystąpili ekolodzy z DUH, kwestionując legalność homologacji VW Golf Plus TDI wyposażonego w silnik EA 189 (z lat 2008–09), „spełniający” normę EU5. Wybór modelu był przypadkowy i chodziło tylko o stworzenie precedensu.
Sąd miał wątpliwości, czy taki pozew ( de facto również niedopełnienie obowiązków przez KBA z podtekstem korupcyjnym ) organizacji pozarządowej przeciw państwowemu urzędowi jest dopuszczalny. Musiał o tym zadecydować TSUE i wtedy niemiecki sąd zajął się silnikiem Golfa. Okazało się ze jednak komputer wyłącza czasem system oczyszczania spalin.
Sąd uznał że VW Golf z silnikiem EA 189 w sposób rażący nie spełnia wymogów technicznych, więc homologację cofnął. Auta bez homologacji nie mogą poruszać się po drogach. DUH zapowiada kolejne procesy. Sprawa dotyczy w sumie 119 modeli kilku producentów a w tym VW, Mercedesa, Porsche, BMW.
Wiele wskazuję na to że precedensowy wyrok się utrzyma. Tylko w Niemczech około 10 mln samochodów straci  prawo do poruszania się po drogach ? W Polsce, dokąd trafiają wysłużone niemieckie auta jeżdżą ich miliony. Ratunkiem jest montaż dodatkowego katalizatora za tysiąc euro i dalszy wzrost zużycia paliwa.
Wszystkie starsze auta koncerny będą mogły wykupić i zezłomować. Rzecz jasna wzrosną przez te koszta operacyjne i ceny nowych samochodów. Ale zamiast złomować samochody można je sprzedać Polsce, Ukrainie, Białorusi i Rosji oraz innym żebrakom.
Samochody były i są ważnym produktem eksportowym Niemiec i Francji.
Dlaczego producenci europejscy posunęli się do potężnego oszustwa i fałszerstwa. Dlatego że nie byli stanie stawić czoła konkurencji z Japonii i Korei.
Aby europejskie samochody były teraz konkurencyjne to samochody z Japonii, Korei i Chin trzeba będzie obłożyć jakimś magicznym podatkiem albo jeszcze lepiej podatkiem od podatku.
Kłopoty zachodnich koncernów motoryzacyjnych pierwsi odczują ich peryferyjni dostawcy, w tym z Polski.
Jedynym pół samodzielnym projektem i produkcją samochodu była w Polsce „Syrena”. Ale był to prymitywny wyrób  samochodopodobny. Żartowano że Polacy chcą produkować Syrenkę ale jeździć Mercedesem.
Wyciekły pierwsze zdjęcia polskiego prototypu samochodu elektrycznego a nie chińskiego składaka. Pieczę nad projektem i produkcją sprawuje niezawodny Minister Aktywów Państwowych, profesor Sasin Jacek.
Jest też awaryjny projekt innowacyjnego wozu drabiniastego.
Sprawa zniszczonych gazociągów NS1 i NS2 ( to takie gospodarcze Pearl Harbour dla Niemiec ) i oszukiwanych samochodów ma dramatycznie duży ciężar gatunkowy dla Niemiec. W XXI wieku średnio innowacyjna gospodarka niemiecka  oparta była na midtech czyli produkcji średniozaawansowanych technologicznie dóbr przemysłowych o bardzo wysokiej jakości. Czasem najwyższej jakości w świecie. To właśnie jest BMW, Mercedes, Porsche, Audi... ale też rozwinięty przemysł maszynowy. Konkurencyjność tej ich gospodarki utwardzała tania energia z Rosji i mało dostępne dla ogółu krytyczne surowce pozyskiwane z Chin !
„Polityka Niemiec wobec Rosji, Ukrainy i w kwestii energetyki poniosła klęskę” – stwierdził były ambasador Niemiec w Polsce Rolf Nikel.
Z potknięcia Niemiec nie należy się cieszyć bo Polska jako ich poddostawca mocno przy tym oberwie.
Niestety 2022 rok był kolejnym rokiem spadkowym na rynku samochodowym Europy.
Edward Gierek, „Przerwana Dekada”: „Wierzcie mi, rozmawiałem z trzema amerykańskimi prezydentami i wiem, że dla nich jesteśmy tylko pionkiem w wielkiej szachownicy światowej polityki, pionkiem, który jest ważny o tyle, o ile można go wykorzystać do ruchu przeciwko ‚czerwonej’ Rosji”. Niewiele się zmieniło.
Zresztą bycie na drodze prowadzącej nawet do konfliktu nuklearnego i bycie celem nie jest powodem do radości dla nikogo kto ma mózg.


Sprawdzenie
1.W latach osiemdziesiątych rozdzielczość technologii płyt drukowanych  PCB wzrosła na tyle że zaczęto na nich montować elementy przeznaczone wcześniej do układów hybrydowych. Nazwę zmieniono na SMD czyli do montażu powierzchniowego. Ale obudowy elementów SMD dalej malały a częstotliwości do jakich można było ich sensownie użyć rosły. Na przykład do blokowania - bocznikowania kondensator jest dobry do i przy częstotliwości swojego rezonansu szeregowego. 
W układach mikrofalowych filtry oraz układy dopasowujące i filtry dopasowujące wykonywane są na odcinkach ścieżek. Czasem wykorzystuje się w układach zasilania to że linia ćwierć falowa jest Inverterem Impedancji. Otwarta na końcu szeroka ( chodzi o małą rezystancje falową ) linia  1/4 falowa może być użyta ( w niewielkim paśmie) jako znaczny bocznikujący kondensator a wąska „zwarta” jako duża indukcyjność do podania zasilania.
Na schemacie pokazano starawy odbiorczy konwerter satelitarny na pasmo 12 GHz zbudowany z układów mikrofalowych.
-Jakie układ ma filtry – układy dopasowujące  i orientacyjnie o  jakiej selektywności
-Ja pracuje mieszacz na diodach D1 i D2

2.Linia może być dopasowana jednostronne lub dwustronnie. Normą jest dopasowanie  szeregowe od strony nadawczej i równoległe odbiorczej.
Pojemność na wyjściu wzmacniacza operacyjnego powiększa przerzut odpowiedzi i w końcu może prowadzić do wzbudzenia się OPA. Ponieważ  linia ćwierćfalowa jest „Inverterem Impedancji” to nie można jej niedopasowanej od pewnej długości  bezpośrednio sterować wyjściem OPA.
Niech będzie linia sterowana przez szeregowy rezystor dopasowujący taki jak jej oporność falowa R a na wyjściu linii jest pojemność C. 
-Jaką funkcje impedancje widzi sterujący tą linie (razem  z wejściowym rezystorem dopasowującym, zadana długość ) układ  ?
-Jaki jest czas narastania sygnału na wyjściu przy zerowym czasie na wejściu ?

3.Norma ISO 8528 : 2018  ( Reciprocating internal combustion engine driven alternating current generating sets — Part 1: Application, ratings and performance ) dotyczy głównie agregatu silnika Diesla z generatorem synchronicznym. Mają one liczne zastosowania zarówno ciągłe jak i awaryjne.
Silnik ma swój regulator (governor) a  generator Automatic Voltage Regulator czyli AVR. Dawniej governory były hydrauliczne a później elektroniczne analogowe a obecnie nowe są cyfrowe z mikrokontrolerem.
Agregatów dotyczą różne normy narodowe ale norma ISO jest najpełniejsza. Im lepszej w dynamicznym zachowaniu jakości jest generator tym wyższa cyfra w jego oznaczeniu G1...G4. Gro generatorów spełnia wymagania G3. Ostatnia kolumna G4 - AMC w tabeli  dotyczy umowy między dostawca a nabywcą - „Agreement between Manufacturer and Customer”.
Duże znaczenie ma dyspozycyjność agregatu i czas po jakim dostarcza energii. Na „krótki” czas po zaniku zasilania  do momentu oddawania mocy przez agregat części krytycznych urządzeń energii mogą dostarczyć urządzenia UPS z akumulatorami.
Duży agregat jest małą elektrownią. Olej smarujący w takim niepracującym dużym agregacie w gotowości jest wolno przetłaczany a agregat może być trochę podgrzany aby był wysoko dyspozycyjny i szybko po starcie dawał energie.
Niesprawny agregat może kosztować życie pacjentów szpitalu lub szkody w konflikcie militarnym gdy zasilania pozbawiony jest  ważny obiekt.
-Jak i czy można polepszyć regulacje governora i AVR ? Jakie czynniki stanowią twarde ograniczenie dla jakości regulacji agregatu ?
-Jakie urządzenia i dlaczego mogą stwarzać problemy przy zasilaniu z agregatów ?
-Jak często agregat powinien być automatycznie ( ewentualnie z aprobatą lub ręcznie ) włączany – testowany aby był wiarygodny w krytycznej chwili ?

4.We współczesnym skomputeryzowanym systemie automatyzacji z 1000 sensorów i aktuatorów do procesu ciągłego może być 100 pętli regulacji PI-PID ale do procesu wsadowego mniej niż 50 pętli regulacji ?
-Z czego to wynika ?
-Jaki udział w kosztach różnych obiektów ma system automatyzacji. Podaj przykłady.

5.Na rysunku pokazano schemat blokowy „sprytnego zaworu” ( smart valve ) z wyświetlaczem, który przyjmuje analogowe ( 4-20 mA ), cyfrowe (RS485) i binarne rozkazy oraz mierzy położenie zaworu, temperaturę, przepływ, ciśnienia i ciśnienie różnicowe. Może być z pomocą PC kalibrowany, konfigurowany, diagnozowany i odczytywany bowiem ma sporą pamięć nieulotną na historie pracy.  
-Daj przykłady gdzie funkcjonalność takiego zaworu będzie dobrze wykorzystana
-Jakie normy dotyczą  serwozaworów ?

6. Jakość odpowiedzi układu regulacji automatycznej SISO na skok wartości zadanej ( lub skok eliminowanego zakłócenia ) ocenia się m.in przy pomocy kryteriów całkowych  ISE (S od square), IAE ( A od absolute ) i ITAE ( T od time) tak zdefiniowanych:
-Podaj w którym miejscu definicji jest błąd.

7.Niech będzie obiekt inercyjny o stałej czasowej tau i czasie opóźnienia to o wzmocnieniu Ku. W tabeli podano optymalne wartości A i B dla optymalnego zregulowania skoku zakłócenia w pętli regulacji z regulatorem PID  przy różnych kryteriach całkowych. Z A i B prosto wylicza się optymalne nastawy regulatora PID: Kc, Ti, Td.
-Z czego wynikają stosunkowo niewielkie różnice w optymalnych nastawach regulatora PID przy różnych kryteriach ?

8.Wskaźnik PKB służy do oceny wzrostu gospodarczego. Dezinformacyjne zabiegi pompowania PKB zmniejszają jego użyteczność jako informacji o procesach gospodarczych.
HDI ( Human Development Index ) to Wskaźnik rozwoju społecznego czyli syntetyczny miernik stopnia rozwoju społeczno - gospodarczego krajów.
Oceną jakości konstrukcyjnej materiału może być stosunek jego „wytrzymałości” do wagi.
Trudniejsza jest ocena żywności na którą składa się synteza wiele składników.
Uproszczoną oceną magnesu może być jego energia do ceny ale ocen do konkretnych celów może być więcej
Ocena samochodu nadaje mu klasę.
Ocenia się jakość sprzętu Video i Audio.
Ocenianie uczniów jest umiejętnością złożoną i trudną.
Pracodawca ocenia wywiązywania się pracownika z jego obowiązków.
Złożone rzeczy z uczniem i pracownikiem są tu zawężone do liczby lub liczb.
W prostym programie szachowym można ocenić sytuacje na szachownicy.
Nie każda jednak funkcja oceniająca ma sens i jest pożyteczna.
Lepszymi materiałami niż Si na klucze mocy są Sic i GaN.

-Podaj przykłady użytecznych funkcji zawężających do oceny w dziedzinie elektroniki i automatyki.

piątek, 24 lutego 2023

Hersh: Jak Ameryka wysadzila Nord Stream

 Hersh: Jak Ameryka wysadzila Nord Stream
https://seymourhersh.substack.com/p/how-america-took-out-the-nord-stream
"„New York Times” nazwał to „tajemnicą”, lecz to Stany Zjednoczone przeprowadziły tajną operację morską, o której do tej pory nic nie wiedzieliśmy.

Ośrodek Nurkowania i Ratownictwa Marynarki Stanów Zjednoczonych znajduje się w miejscu równie nieznanym jak on sam – wzdłuż dawnej bocznej drogi w Panama City, dziś rozbudowującej się miejscowości wypoczynkowej na południowo-zachodnim krańcu Florydy, 70 mil na południe od granicy z Alabamą.

Obiekt, w którym się mieści, jest równie niepozorny, jak jego lokalizacja – szare, betonowe zabudowania z okresu po II wojnie światowej, przypominające budynki jakiejś szkoły zawodowej w zachodniej części Chicago. Obecnie przebiega obok czteropasmowa droga, przy której znajduje się automatyczna pralnia i szkoła tańca.

Ośrodek ten szkoli od wielu dziesięcioleci najlepszych nurków głębinowych, którzy trafiają później do amerykańskich jednostek wojskowych na całym świecie z umiejętnościami, jakie można wykorzystać w sprawach dobrych – oczyszczania portów i wybrzeży z różnego złomu i niewybuchów, także przy użyciu C4; ale też złych – wysadzania w powietrze platform wiertniczych, zatykania zaworów wlotowych podmorskich elektrowni, niszczenia śluz na kluczowych kanałach żeglugowych.

Ośrodek w Panama City, w którym znajduje się drugi z największych krytych basenów w Ameryce, był najodpowiedniejszym miejscem do zwerbowania najlepszych, najbardziej dyskretnych absolwentów szkoły nurkowania, którzy skutecznie wykonali ubiegłego lata, na głębokości 80 metrów pod powierzchnią Morza Bałtyckiego powierzone im zadanie.

Jak twierdzi informator posiadający bezpośredni dostęp do wiadomości z zakresu planowania operacyjnego, w czerwcu minionego roku, działając pod przykrywką odbywających się jawnie ćwiczeń NATO, znanych jako BALTOPS 22, nurkowie Marynarki Wojennej zainstalowali zdalnie uruchamiane ładunki wybuchowe, które trzy miesiące później zniszczyły trzy z czterech nitek Gazociągu Północnego.

Dwie z nich, znane jako Nord Stream 1, dostarczały przez ponad dziesięć lat do Niemiec i dużej części Europy Zachodniej tani rosyjski gaz ziemny. Kolejne dwie, zwane Nord Stream 2, zostały już ukończone, lecz jeszcze nie oddano ich do użytku. Wraz z pojawieniem się rosyjskich wojsk na ukraińskiej granicy i wybuchem najbardziej krwawego konfliktu w Europie po 1945 roku prezydent Joe Biden uznał, że rurociągi te stanowią dla Władimira Putina narzędzie pozwalające traktować gaz jako broń służącą do realizacji jego ambicji politycznych i terytorialnych.

Gdy zapytaliśmy o komentarz, rzeczniczka Białego Domu Adrienne Watson przysłała maila: „To nieprawda i całkowita fikcja”. Rzeczniczka Centralnej Agencji Wywiadowczej (CIA), Tammy Thorp, opowiedziała w podobnym duchu: „Twierdzenie to jest całkowicie i głęboko nieprawdziwe”.

Decyzja Bidena o dokonaniu sabotażu na rurociągach podjęta została po ponad dziewięciu miesiącach wiodących do różnych wniosków tajnych dyskusji wewnętrznych w waszyngtońskich gremiach odpowiedzialnych za bezpieczeństwo narodowe o tym, jak ten cel osiągnąć. Przez większość tego okresu kwestią sporną nie było to, czy w ogóle przeprowadzać tą operację, lecz to w jaki sposób ukryć, kto ponosi za nią odpowiedzialność.

Istniała istotna przyczyna formalna, by wykorzystać właśnie absolwentów szkoły ekstremalnego nurkowania z Panama City. Nurkowie należeli wyłącznie do Marynarki Wojennej, nie podlegając amerykańskiemu Dowództwu Operacji Specjalnych, którego niejawne operacje muszą być raportowane Kongresowi, a wcześniej zaakceptować muszą je kierownictwa Senatu i Izby Reprezentantów, tzw. Gang Ośmiu. Tymczasem już w fazie planowania pod koniec 2021 roku i w pierwszych miesiącach 2022 roku administracja Bidena robiła wszystko, by uniknąć przecieków.

Prezydent Biden i jego ludzie do spraw zagranicznych – doradca ds. bezpieczeństwa narodowego Jake Sullivan, sekretarz stanu Tony Blinken i zastępca sekretarza stanu ds. politycznych Victoria Nuland – konsekwentnie nie ukrywali swojej wrogości wobec gazociągów, które łączyły po dnie Bałtyku dwa porty w północno-zachodniej Rosji, w pobliżu estońskiej granicy, z północnymi Niemcami, przebiegając w pobliżu duńskiej wyspy Bornholm.

Bezpośredni szlak pozwalający pominąć tranzyt przez Ukrainę był wymarzonym prezentem dla gospodarki niemieckiej cieszącej się dostatkiem taniego rosyjskiego gazu ziemnego, którego wystarczało i dla przemysłu, i do ogrzewania domów, a na dodatek niemieckie firmy mogły sprzedawać jego nadwyżki do całej Europy Zachodniej.

Akcja, której inicjatywa zrodziła się w administracji, naruszała składane przez Stany Zjednoczone deklaracje o ograniczaniu bezpośredniego starcia z Rosją. Jej utajnienie było kluczowe.

Nord Stream 1 był od samego początku postrzegany przez Waszyngton i antyrosyjskie kraje NATO jako zagrożenie dla dominacji zachodniej. Jego operatorem jest spółka zarejestrowana w 2005 roku w Szwajcarii, Nord Stream AG, której udziałowcem jest Gazprom, giełdowa korporacja rosyjska generująca gigantyczne zyski dla swych akcjonariuszy, wśród których dominują oligarchowie kontrolowani przez Putina. Do Gazpromu należało 51% akcji operatora, zaś pozostałe 49% do europejskich koncernów energetycznych – francuskiego, holenderskiego i dwóch niemieckich, które miały prawo sprzedaży niedrogiego gazu lokalnym firmom dystrybucyjnym z Niemiec i Europy Zachodniej. Zyski Gazpromu trafiały również do rosyjskiego budżetu, dla którego w niektórych latach środki ze sprzedaży ropy i gazu stanowiły do 45% wszystkich wpływów.

Polityczne obawy Ameryki były uzasadnione: Putin uzyskiwał dodatkowe, tak potrzebne źródło dochodu, a Niemcy i reszta Europy Zachodniej uzależniały się od taniego gazu dostarczanego przez Rosję, co jednocześnie zmniejszało zależność Europy od Ameryki. Faktycznie, tak się właśnie stało. Wielu Niemców uznawało Nord Stream 1 za część realizacji znanej koncepcji Ostpolitik kanclerza Willy’ego Brandta, która miała umożliwić powojennym Niemcom i innym krajom europejskim odbudowę po zniszczeniach II wojny światowej, pozwalając na wykorzystanie taniego rosyjskiego gazu do napędzania kwitnących rynków i gospodarki zachodnioeuropejskiej.

Jake Sullivan

Nord Stream 1 był zatem zagrożeniem z punktu widzenia NATO i Waszyngtonu, zaś Nord Stream 2, którego budowę zakończono we wrześniu 2021 roku i który – w przypadku dopuszczenia go do eksploatacji przez niemieckie urzędy regulacyjne – podwoiłby dostawy taniego gazu do Niemiec i Europy Zachodniej. Ten kolejny gazociąg zabezpieczyłby ponad 50% niemieckiego rocznego zapotrzebowania na gaz. Dlatego narastało napięcie między Rosją a NATO, dodatkowo eskalowane przez agresywną politykę zagraniczną administracji Bidena.

Opozycja wobec Nord Stream 2 uaktywniła się w przededniu inauguracji Bidena w styczniu 2021 roku, gdy republikańscy senatorowie, z Tedem Cruzem z Teksasu na czele, nieustannie podnosili kwestię taniego gazu rosyjskiego podczas procedury nominacji Blinkena na sekretarza stanu. To wtedy senacka większość przyjęła przepisy, które – jak powiedział Blinkenowi Cruz – „powstrzymały start rurociągu”. Tymczasem rząd niemiecki, na którego czele stała wówczas Angela Merkel, wywierał olbrzymią presję polityczną i gospodarczą, by uruchomić drugi gazociąg.

Czy Biden przeciwstawiłby się Niemcom? Blinken twierdził, że tak, lecz dodał, że nie rozmawiał jeszcze z nowym prezydentem o szczegółach jego poglądów. „Znam jego wyraźną opinię, że Nord Stream 2 to zły pomysł – mówił – Wiem, że gotów jest użyć wszelkich argumentów, by przekonać naszych przyjaciół i partnerów, w tym Niemcy, by jej nie kontynuować”.

Anthony Blinken

Kilka miesięcy później, gdy budowa drugiego gazociągu miała się ku końcowi, Blinken dał coś do zrozumienia. W maju, po zaskakującym zwrocie akcji, administracja odstąpiła od sankcji wobec Nord Stream AG, zaś Departament Stanu stwierdził, że próby wstrzymania uruchomienia gazociągu za ich pomocą i przy użyciu dyplomacji „z natury rzeczy muszą potrwać”.

Pojawiły się też kuluarowe informacje, że władze amerykańskie przekazały prezydentowi Ukrainy, Wołodymyrowi Zełeńskiemu, stojącemu wówczas przed obliczem rosyjskiej inwazji, by nie krytykował tej ich decyzji.

Wywołało to natychmiastowe skutki. Kierowani przez Cruza Republikanie w Senacie ogłosili, że będą blokować wszystkich nominatów Bidena w sferze polityki zagranicznej, a następnie opóźniali przez miesiące przyjęcie budżetu obronnego. Portal „Politico” opisywał później zwrot Bidena w sprawie drugiego rosyjskiego gazociągu jako „decyzję, która – znacznie bardziej niż chaotyczne wycofanie wojsk z Afganistanu – zagroziła realizacji jego zamierzeń”.

Administracja kluczyła nadal, choć w połowie listopada otrzymała dodatkowy czas, gdy niemieccy regulatorzy energii wstrzymali wydanie zgody na eksploatację drugiej nitki Gazociągu Północnego. Ceny gazu wzrosły w ciągu kilku dni o 8%, a w Niemczech i Europie pojawiły się rosnące obawy, że zatrzymanie uruchomienia rurociągu oraz rosnące ryzyko wybuchu wojny Rosji z Ukrainą doprowadzą do zimowego chłodu, którego tak bardzo chciano uniknąć.

Waszyngton nie miał jasności co do stanowiska nowego niemieckiego kanclerza, Olafa Scholza. Kilka miesięcy wcześniej, po klęsce w Afganistanie, Scholz poparł publicznie podczas przemówienia w Pradze apel francuskiego prezydenta Emmanuela Macrona o bardziej autonomiczną europejską politykę zagraniczną, wyraźnie wzywając do zmniejszenia zależności od Waszyngtonu i jego wojowniczej polityki.

Przez cały ten okres stale wzrastała liczebność rosyjskich wojsk przy granicy z Ukrainą; w grudniu ponad 100 tys. żołnierzy zajęło pozycje na Białorusi i na Krymie w gotowości do ataku. W Waszyngtonie coraz głośniej bito na alarm, a Blinken szacował, że liczebność armii może ulec „podwojeniu w krótkim czasie”.

Uwaga administracji znów skupiła się na Nord Stream. Waszyngton obawiał się, że dopóki Europa zależeć będzie od rurociągów z tanim gazem, kraje takie jak Niemcy niechętne będą finansowaniu Ukrainy i przekazywaniu jej broni niezbędnej do pokonania Rosji.

To w tym burzliwym okresie Biden upoważnił Jake’a Sullivana do powołania międzyresortowej grupy, która miała opracować jakiś plan.

Miała ona rozpatrywać różne scenariusze. Wypracowała jednak tylko jeden.

Planowanie

W grudniu 2021 roku, dwa miesiące przed wkroczeniem rosyjskich czołgów na Ukrainę, Jake Sullivan zorganizował spotkanie nowej grupy zadaniowej – ludzi z Połączonego Dowództwa Sztabów, CIA, Departamentu Stanu i Departamentu Skarbu – na którym zapytał, jak zareagować na nadchodzącą inwazję Putina.

Miało to być pierwsze z całej serii tajnych spotkań prowadzonych w bezpiecznym pomieszczeniu na ostatnim piętrze Starego Budynku Biura Wykonawczego, w którym swoją siedzibę miała również prezydencka Rada Konsultacyjna Wywiadów Zagranicznych (FIAB), położonego nieopodal Białego Domu. Prowadzono standardowe dyskusje o różnych scenariuszach, które doprowadziły w końcu do sformułowania kluczowego pytania wstępnego: czy przygotowywana przez grupę rekomendacja dla prezydenta ma zakładać działania odwracalne (takie jak kolejny pakiet sankcji, ograniczenia walutowe), czy też nieodwracalne (czyli akcje bezpośrednie, których skutków nie da się cofnąć)?

Według źródła mającego bezpośrednią wiedzę na temat tych wydarzeń, dla uczestników narad jasnym było to, że Sullivan oczekiwał od zespołu propozycji planu zniszczenia dwóch gazociągów Nord Stream i takie było też życzenie prezydenta.

W ciągu kolejnych kilku spotkań ich uczestnicy zastanawiali się nad tym, w jaki sposób przeprowadzić atak. Marynarka Wojenna proponowała wykorzystanie nowego okrętu podwodnego do bezpośredniego zniszczenia rurociągu. Siły Powietrzne poddały pod dyskusję zrzucenie bomb z opóźnionymi, odpalanymi zdalnie zapalnikami. CIA podkreślała, że niezależnie od zastosowanej metody, wszystko musi pozostać tajne. Wszyscy rozumieli, jaka jest stawka. „To nie zabawa w piaskownicy” – wspomina źródło. Jeżeli przeprowadzenie ataku zostałoby udowodnione Stanom Zjednoczonym, byłby to „akt wypowiedzenia wojny”.

Wiliam Burns

Na czele CIA stał już William Burns, ułożony i kulturalny były ambasador w Rosji, który w administracji Obamy był zastępcą sekretarza stanu. To Burns szybko zatwierdził powołanie doraźnej grupy roboczej w agencji, jednemu z członków której przypadkowo znane były możliwości nurków głębinowych Marynarki Wojennej z Panama City. W ciągu kolejnych kilku tygodni członkowie grupy z CIA zaczęli prace nad planem tajnej operacji polegającej na przygotowaniu wybuchów rurociągu przez płetwonurków.

Coś podobnego robiono już wcześniej. W 1971 roku amerykański wywiad dowiedział się od dwóch do tej pory nie ujawnionych źródeł, że dwie jednostki rosyjskiej marynarki na radzieckim Dalekim Wschodzie komunikowały się za pośrednictwem podmorskiego kabla położonego na dnie Morza Ochockiego. Łączył on regionalne dowództwo sił morskich z centralą we Władywostoku.

Zebrana naprędce grupa funkcjonariuszy Centralnej Agencji Wywiadowczej i Narodowej Agencji Bezpieczeństwa (NSA) zebrała się w tajnym miejscu w okolicach Waszyngtonu i wypracowała plan zakładający wykorzystanie nurków Marynarki Wojennej, zmodyfikowane okręty podwodne i sprzęt do nurkowania ratowniczego. Nurkowie zainstalowali na kablu urządzenia podsłuchowe, które pozwalały bez problemu przechwytywać i nagrywać na taśmach rosyjskie komunikaty.

Wkrótce NSA stwierdziła, że radzieccy oficerowie marynarki, przekonani o bezpieczeństwie swojej łączności, rozmawiali ze swymi kolegami bez użycia szyfrów. Urządzenia nagrywające i taśmy musiały być wymieniane każdego miesiąca, a projekt z powodzeniem realizowany był przez kolejną dekadę, dopóki nie ujawnił go 44-letni cywilny technik pracujący dla NSA, Ronald Pelton, biegle znający język rosyjski. Peltona zdradził przewerbowany rosyjski szpieg w 1985 roku, przez co skazano go na wyrok więzienia. Rosjanie zapłacili mu za wiadomości o operacji zaledwie 5000 dolarów, zaś kolejne 35 000 dolarów otrzymał za inne, nieokreślone do tej pory dane operacyjne interesujące stronę rosyjską.

Ten podwodny sukces, noszący kryptonim „Dzwonki z Bluszczu” (Ivy Bells), okazał się nowatorski i ryzykowny, lecz pozwolił na pozyskanie bezcennych informacji na temat zamiarów i planów radzieckiej marynarki wojennej.

Początkowo jednak międzyresortowy zespół odniósł się sceptycznie do entuzjazmu CIA w sprawie tajnego, podwodnego ataku. Zbyt wiele pytań pozostawało bez odpowiedzi. Wody Bałtyku były zbyt intensywnie patrolowane przez marynarkę rosyjską i nie było na nich platform wiertniczych mogących zapewnić przykrywkę dla operacji nurków. Może nurkowie mogliby pojechać do Estonii, pod granicę rosyjską, niedaleko terminali gazowych, by przygotować się do wypełnienia misji? „To byłby kretynizm” – odpowiedziano agencji.

W czasie prac nad tym „planowaniem”, jak twierdzi informator, „niektórzy goście z CIA i Departamentu Stanu powtarzali: ‘Nie róbmy tego. To głupie i będzie miało koszmarne skutki polityczne, jeżeli wyjdzie na jaw’”.

Nie bacząc na to, na początku 2022 roku grupa robocza CIA poinformowała zespół międzyresortowy Sullivana: „Znaleźliśmy sposób, by wysadzić rurociągi”.

Dalej stała się rzecz zadziwiająca. Mniej niż trzy tygodnie przed wyraźnie nieuniknioną już inwazją rosyjską, 7 lutego, Biden spotkał się w Białym Domu z niemieckim kanclerzem Olafem Scholzem, który po pewnych wahaniach wyraźnie zbliżył się do Amerykanów. Na konferencji prasowej po tym spotkaniu prezydent jednoznacznie zapowiedział: „Jeśli Rosja zaatakuje… nie będzie żadnego Nord Stream 2. Skończymy z tym”.

Dwadzieścia dni wcześniej, zastępca sekretarza stanu Nuland powiedziała właściwie to samo podczas konferencji prasowej Departamentu Stanu, która przyciągnęła niewiele mediów. „Chcę Wam to jasno dziś powiedzieć – mówiła, odpowiadając na pytanie – Jeżeli Rosja zaatakuje Ukrainę, Nord Stream 2, w taki czy inny sposób, zostanie wstrzymany”.

Wielu z tych, którzy brali udział w planowaniu misji zniszczenia rurociągu, było przerażonych tym, co uznali za pośrednie wskazywanie na możliwy atak.

„To tak, jakbyśmy umieścili w Tokio bombę nuklearną i powiedzieli Japończykom, że zamierzamy ją zdetonować – twierdzi źródło – Plan dotyczył opcji, które mogły być zastosowane w przypadku inwazji, a nie reklamowane publicznie. Biden najwyraźniej tego nie rozumiał, lub to zignorował”.

Brak dyskrecji Bidena i Nuland, jeśli można o nim właśnie mówić, sfrustrował część członków zespołu planującego. Stworzył on jednak również pewną szansę. Według informatora, niektórzy z wyższych oficerów CIA uznali, że plan wysadzenia rurociągu „nie mógł być już rozpatrywany jako tajna operacja, bo prezydent powiedział właśnie, że wiemy jak to zrobić”.

Dzięki temu ranga planu wysadzenia Nord Stream 1 i Nord Stream 2 została nagle zmieniona z poziomu tajnej operacji wymagającej poinformowania Kongresu do poziomu ściśle tajnej operacji wywiadowczej prowadzonej ze wsparciem sił zbrojnych Stanów Zjednoczonych. Teraz według przepisów, jak twierdzi informator, „Nie istniał już obowiązek poinformowania o tej operacji Kongresu. Pozostało ją tylko przeprowadzić, w warunkach utajnienia. Rosjanie mają znakomity wywiad na Morzu Bałtyckim”.

Członkowie grupy roboczej w agencji nie mieli bezpośredniego kontaktu z Białym Domem i czekali z niecierpliwością na informację, czy prezydent mówił poważnie, czyli czy misja dostała zielone światło. „Przyszedł Bill Burns i powiedział: ‘działajcie’”.

Operacja

Idealną baza do wykonania misji była Norwegia.

W ciągu kilku ostatnich lat kryzysu na linii Wschód – Zachód Stany Zjednoczone znacznie zwiększyły swoją obecność militarną właśnie w Norwegii, której zachodnią granicę stanowi 2650 km wybrzeża północnego Atlantyku, przechodzącego nad kołem podbiegunowym w granicę z Rosją. Pentagon zainwestował w rozbudowę i unowocześnienie instalacji Marynarki Wojennej i Sił Powietrznych w tym kraju setki milionów dolarów, tworząc wysoko płatne miejsca pracy i proponując korzystne kontrakty, lecz jednocześnie wywołując pewne kontrowersje.

Najważniejszą z inwestycji był zaawansowany radar z syntetyczną aparturą, zlokalizowany na północy Norwegii i zdolny do obserwacji dużej części Rosji, który uruchomiono zaraz po tym, jak wywiad amerykański utracił dostęp do stacji podsłuchowych dalekiego zasięgu w Chinach.

Uruchomiono odremontowaną amerykańską bazę okrętów podwodnych, którą rozbudowywano przez lata, a która teraz miała pozwolić na bliższą współpracę jednostek amerykańskich z ich norweskimi partnerami, by wspólnie monitorować i szpiegować położone 400 km na wschód, na Półwyspie Kolskim, rosyjskie atomowe silosy. Stany Zjednoczone powiększyły także norweską bazę lotniczą na północy kraju i dostarczyły Norwegom flotyllę samolotów zwiadowczych Boeinga P8 Poseidon, zwiększając zasięg szpiegowania wszelkich ruchów Rosji.

W zamian za to norweski rząd, przy sprzeciwie liberałów i centrystów w parlamencie, w listopadzie ubiegłego roku przyjął Dodatkową Umowę o Współpracy Obronnej (SDCA). Według jej postanowień, niektóre „ustalone” obszary na północy kraju weszły pod jurysdykcję amerykańskiego wymiaru sprawiedliwości, w tym w przypadku przestępstw popełnianych przez amerykańskich żołnierzy poza terenem baz, jak i przez obywateli norweskich oskarżonych lub podejrzanych o utrudnianie funkcjonowania tych baz.

Norwegia była jednym z pierwotnych sygnatariuszy Paktu Północnoatlantyckiego w 1949 roku, w pierwszych latach zimnej wojny. Sekretarzem generalnym NATO jest obecnie Jens Stoltenberg, zdeklarowany antykomunista, który przez osiem lat stał na czele norweskiego rządu, zanim otrzymał obecną posadę dzięki amerykańskiemu poparciu. Był jastrzębiem we wszystkim, co związane z Putinem i Rosją; swoją współpracę z wywiadem amerykańskim zaczął jeszcze w czasach wojny w Wietnamie. Od tamtej pory cieszył się bezwarunkowym zaufaniem. „To rękawiczka idealnie pasująca do amerykańskiej dłoni” – komentuje źródło.

Wracając do Waszyngtonu, planujący operację wiedzieli, że muszą zwrócić się do Norwegów. Jak mówi informator, „oni nienawidzili Rosjan, a norweska marynarka miała mnóstwo marynarzy i nurków, którzy od pokoleń zdobywali doświadczenie podczas świetnie opłacanych poszukiwań podmorskich złóż ropy naftowej i gazu”. Można też było liczyć na to, że zachowają całą misję w tajemnicy. Norwegowie mogli mieć tu też swój interes. Zniszczenie Nord Stream – jeśli udałoby się Amerykanom – pozwoliłoby Norwegii na znaczne zwiększenie eksportu swego gazu ziemnego do Europy.

W marcu kilku członków zespołu poleciało do Norwegii, by spotkać się z oficerami tamtejszych służb specjalnych i marynarki. Jedną z najważniejszych kwestii było ustalenie najbardziej dogodnego na Bałtyku miejsca do podłożenia materiałów wybuchowych. Nord Stream 1 i Nord Stream 2 miały po dwie rury każdy, a odległość między nimi wynosiła niecałe 2 km. Gazociągi kończyły się w porcie w Greifswaldzie, w północno-wschodnich Niemczech.

Norweska marynarka szybko znalazła właściwe miejsce: płytkie wody Morza Bałtyckiego, kilka kilometrów od duńskiej wyspy Bornholm. Rurociągi przebiegały tam w odległości 1,5 km od siebie, po dnie morza na głębokości zaledwie 80 m. Była to głębokość w zasięgu nurków poruszających się norweskim poławiaczem min klasy Alta, którzy nurkują z mieszanką tlenu, azotu i helu w zbiornikach, i mogą zainstalować wyprofilowane ładunki C4 na betonowych osłonach czterech rurociągów. Byłaby to żmudna, czasochłonna i niebezpieczna robota, lecz wody wokół Bornholmu miały jeszcze jedną przewagę: nie ma tam większych prądów morskich, co sprawia, że nurkowanie jest znacznie prostsze.

Po przeprowadzeniu kilku analiz Amerykanie podjęli decyzję.

W tym momencie do gry znowu wchodzi szerzej nieznana grupa nurków głębinowych z Panama City. Tamtejszy ośrodek nurkowania, który wyszkolił uczestników operacji „Dzwonki z Bluszczu”, postrzegany jest przez absolwentów elitarnej Akademii Marynarki Wojennej w Annapolis, chcących najczęściej służyć w siłach specjalnych (Seals), jako piloci myśliwców albo na okrętach podwodnych, jako nieistotne zaplecze. Jeżeli ktoś zostaje „czarnym butem”, czyli uznawanym za mniej atrakcyjną służbę oficerem pokładowym, zawsze może zostać przydzielony do załogi niszczyciela, krążownika czy okrętu podwodnego. Najmniej widowiskowym odcinkiem jest walka przy użyciu min. Zajmujący się nią nurkowie nie są nigdy pokazywani w hollywoodzkich filmach, ani na okładkach popularnych magazynów.

„Najlepsi nurkowie głębinowi tworzą wąską społeczność i tylko najlepsi z tej wąskiej grupy zwerbowani zostali na potrzeby tej operacji; powiedziano im, że mogą zostać wezwani do CIA w Waszyngtonie” – twierdzi informator.

Norwegowie i Amerykanie wyznaczyli już miejsce i wykonawców, lecz pojawiło się inne zmartwienie: wszelka niestandardowa aktywność podwodna u brzegów Bornholmu mogła zwrócić na siebie uwagę marynarki szwedzkiej lub duńskiej, które mogły o niej poinformować.
Dania była jednym z państw założycielskich NATO, znanym w świecie wywiadów z utrzymywania szczególnych relacji z Wielką Brytanią. Szwecja złożyła wniosek o członkostwo w NATO i posiadała znakomite umiejętności wykorzystywania swoich systemów wykrywania dźwięku i sensorów magnetycznych pod wodą, co pozwalało jej na wykrywanie rosyjskich okrętów podwodnych, gdy te pojawiały się czasem wokół odległych szwedzkich archipelagów i zmuszane były do wynurzenia się.

Norwegowie przekonywali Amerykanów, że wyżsi urzędnicy w Danii i Szwecji powinni zostać ogólnie poinformowani o możliwej aktywności nurków w tym obszarze. W ten sposób ktoś wyżej postawiony mógł interweniować, bagatelizując ewentualne raporty na ten temat i wyciągając je z łańcucha komunikacji dowodzenia. „To o czym wiedzieli i co zostało im powiedziane to dwie całkiem różne rzeczy” – powiedział mi informator. Poproszona o komentarz w tej sprawie ambasada Norwegii nie odpowiedziała.

Rola Norwegów była kluczowa również przy rozwiązywaniu innych problemów. Marynarka rosyjska znana była z tego, że posiada technologie pozwalające na lokalizowanie i namierzanie podwodnych min. Amerykańskie zestawy wybuchowe musiały zostać ukryte w taki sposób, by systemy rosyjskie uznały je za naturalny element dna morskiego, co wymagało uwzględnienia określonego poziomu zasolenia wody. Norwegowie znaleźli tu rozwiązanie.

To również Norwegowie znaleźli odpowiedź na kluczowe pytanie o to, kiedy operacja powinna zostać przeprowadzona. Przez ostatnie 21 lat, w czerwcu każdego roku amerykańska VI Flota bazująca we włoskim porcie Gaeta, na południe od Rzymu, organizowała duże ćwiczenia NATO na Morzu Bałtyckim z udziałem dziesiątków okrętów państw sojuszniczych z regionu. Kolejne ćwiczenia, znane jako Baltic Operations 22 lub BALTOPS 22, miały się znów odbyć w czerwcu. Norwegowie zasugerowali, że byłyby one idealną przykrywką do zainstalowania ładunków wybuchowych.

Amerykanie dodali do tego jeden istotny element: przekonali planistów z VI Floty, by dodać do ćwiczeń program badawczo-rozwojowy. Ćwiczenia, jak informowała Marynarka Wojenna, prowadzone miały być przez VI Flotę we współpracy z „wojskowymi centrami badawczymi”. Jeden z ich elementów miał odbyć się u wybrzeży Bornholmu z udziałem NATOwskich zespołów nurków, którzy mieli zainstalować miny, a następnie konkurować w odnajdywaniu i unieszkodliwianiu ich za pomocą najnowszych technologii podwodnych.

Było to przydatne ćwiczenie, a jednocześnie znakomita przykrywka. Chłopaki z Panama City mieli zrobić swoje i ładunki C4 miały zostać zainstalowane przed zakończeniem BALTOPS 22, z zapalnikiem ustawionym na 48 godzin. Amerykanów i Norwegów miało przed pierwszym wybuchem już dawno nie być na miejscu.

Odliczano dni. „Zegar tykał, zbliżaliśmy się do realizacji misji” – mówi źródło.

I wtedy Waszyngton wpadł na inny pomysł. Ładunki miały być założone podczas BALTOPS, lecz Biały Dom zaczął się obawiać, że dwudniowy okres pomiędzy zakończeniem manewrów a ich detonacją jest zbyt krótki i tym samym udział Stanów Zjednoczonych w operacji stałby się oczywisty.

Biały Dom zadał wtedy nowe pytanie: „Czy chłopaki w terenie mogą zaproponować jakiś sposób wysadzenia rurociągów później, po wydaniu stosownego rozkazu?”.

Niektórzy członkowie zespołu planistycznego byli wściekli i sfrustrowani widocznym brakiem zdecydowania prezydenta. Nurkowe z Panama City wielokrotnie ćwiczyli zakładanie C4 na rurociągach, również podczas BALTOPS, lecz teraz to zespół z Norwegii miał zaproponować sposób realizacji jego życzenia – umożliwienia wykonania rozkazu w wybranym przez niego momencie.

CIA przywykła do mierzenia się z arbitralnymi, wprowadzanymi w ostatniej chwili zmianami planów. Cała sytuacja wywołała jednak na nowo u niektórych wątpliwości co do celowości i legalności całej operacji.

Tajne rozkazy prezydenta przypominały dylematy CIA z czasów wojny w Wietnamie, gdy prezydent Lyndon Johnson, stojąc w obliczu narastających protestów antywojennych, polecił agencji przekroczenie jej kompetencji – szczególnie przepisów zakazujących jej działania na terytorium Stanów Zjednoczonych – i obserwację przywódców ruchu antywojennego, by sprawdzić, czy nie są kontrolowani przez komunistyczną Rosję.

Ostatecznie agencja na to przystała i w latach 1970. dowiedzieliśmy się, jak daleko może się posunąć. Po ujawnieniu afery Watergate media opisywały kolejne przypadki szpiegowania przez CIA obywateli amerykańskich, jej zaangażowania w zabójstwa przywódców w innych krajach i obalenie socjalistycznego rządu Salvadora Allende.

Ujawnienie tych afer podczas szeregu dramatycznych przesłuchań w połowie lat 1970., w senackiej komisji kierowanej przez Franka Churcha z Idaho, pokazało wyraźnie, że ówczesny dyrektor agencji Richard Helms uznawał, iż ma obowiązek wykonywania wszystkich poleceń prezydenta, nawet tych sprzecznych z prawem.

W nieopublikowanych, złożonych za zamkniętymi drzwiami zeznaniach, Helms z powagą wyjaśniał, że wykonując tajne rozkazy prezydenta ma się „niemal status Niepokalanej Dziewicy. (…) Czy to właściwe, czy nie – CIA działa w oparciu o inne reguły i zasady operacyjne niż wszystkie inne instytucje rządowe”. Właściwie powiedział senatorom, że jako szef CIA rozumiał, iż pracuje dla Korony, a nie dla Konstytucji.

Amerykanie działający w Norwegii operowali w oparciu o ten sam schemat, rozpoczynając skrupulatną pracę nad rozwiązaniem nowego problemu – kwestii zdalnego wysadzenia ładunków C4 na rozkaz Bidena. Było to zadanie znacznie bardziej wymagające niż wydawało się w Waszyngtonie. Zespół w Norwegii nie miał pojęcia, kiedy prezydent zechce nacisnąć guzik. Czy stanie się to za kilka tygodni, miesięcy, pół roku, a może później?

Przymocowane do rurociągów C4 miało zostać odpalone przez boję sonarową zrzuconą tuż przed wybuchem z samolotu, lecz procedura ta wymagała zastosowania najbardziej zaawansowanych technologii przetwarzania sygnału. Zapalniki przymocowane do czterech rur mogły zostać jednak przypadkowo odpalone przez złożony zestaw dźwięków dna morskiego na zatłoczonym Morzu Bałtyckim – tych pochodzących z przepływających bliżej i dalej statków, odwiertów podwodnych, zjawisk sejsmicznych, fal, a nawet od morskiej fauny.

Aby tego uniknąć, boja sonarowa miała emitować sekwencję dźwięków tonalnych o niskiej częstotliwości, bardzo podobnych do fletu lub fortepianu, które rozpoznane zostałyby przez mechanizm zapalnika i po zaprogramowanym odstępie czasu uruchomiłyby eksplozję. „Potrzebny byłby sygnał wystarczająco silny, by żaden inny dźwięk nie mógł przypadkowo uruchomić detonacji” – powiedział mi emerytowany profesor fizyki, technologii i bezpieczeństwa narodowego z Instytutu Technologii w Massachusetts (MIT), Theodore Postol.

Postol, który służył jako doradca naukowy w Dowództwie Operacji Morskich Pentagonu, twierdzi, że problem, który rozwiązywała grupa w Norwegii w związku z opóźnieniem decyzji Bidena stwarzał spore ryzyko: „Im dłużej materiały wybuchowe przebywają w wodzie, tym większe zagrożenie, że ich eksplozję wywoła przypadkowy sygnał”.

26 września 2022 roku samolot zwiadowczy norweskiej marynarki wojennej P8 odbył rutynowy na pierwszy rzut oka lot i zrzucił boję sonarową. Emitowany przez nią sygnał dotarł najpierw do Nord Stream 2, a później do Nord Stream 1. Kilka godzin później materiały wybuchowe o dużej mocy zostały odpalone i trzy z czterech rur stały się niezdatne do użytku. W ciągu kilku minut na powierzchni wody widoczne były plamy metanu, który wydobył się z uszkodzonych gazociągów, a świat dowiedział się, że stało się coś nieodwracalnego.

Skutki

Zaraz po wybuchu gazociągu amerykańskie media traktowały to wydarzenie jako niewyjaśnioną zagadkę. Powtarzano, że prawdopodobnym sprawcą jest Rosja, co miały potwierdzać kontrolowane przecieki z Białego Domu, w żaden sposób nie wyjaśniające wszakże motywów takiego autosabotażu, poza twierdzeniem o najzwyklejszej zemście. Kilka miesięcy później, gdy okazało się, że władze rosyjskie dyskretnie szacują koszty naprawy gazociągów, „New York Times” stwierdził, że „komplikuje to teorie o odpowiedzialności” za atak. Żadna z czołowych amerykańskich gazet nie powróciła do gróźb zniszczenia gazociągu wygłaszanych wcześniej przez Bidena i zastępczynię sekretarza stanu Nuland.

Nigdy nie było zbyt jasne, dlaczego niby Rosja miała niszczyć własne, dające jej zyski rurociągi. Tymczasem decyzję prezydenta racjonalizował sekretarz stanu Blinken.

Na konferencji prasowej we wrześniu ubiegłego roku, zapytany o konsekwencje narastającego kryzysu energetycznego w Europie, Blinken uznał, że sytuacja ma swoje potencjalne plusy: „To wyjątkowa okazja, by raz na zawsze skończyć z zależnością od rosyjskich źródeł energii i tym samym odebrać Władimirowi Putinowi możliwość traktowania ich jako środka pozwalającego na realizację jego imperialnych projektów. To bardzo znaczące i daje nam to niesamowitą, strategiczną szansę w nadchodzących latach, choć jednocześnie musimy zrobić wszystko, co tylko możemy, by konsekwencje tej sytuacji nie były ciężarem dla obywateli naszych krajów i innych na świecie”.

Całkiem niedawno satysfakcję z powodu zniszczenia najnowszych rurociągów wyraziła Victoria Nuland. Występując przed Komisją Stosunków Zagranicznych Senatu pod koniec stycznia, powiedziała senatorowi Tedowi Cruzowi: „Podobnie jak Pan i, jak sądzę, również administracja, jestem bardzo zadowolona z powodu tego, że Nord Stream 2 jest dziś, jak lubi to Pan określać, stertą złomu na dnie morza”.

Informator ma znacznie bardziej prostolinijny pogląd na decyzję Bidena w sprawie dokonanego u progu zimy sabotażu na liczących w sumie prawie 2500 km długości rurach Gazpromu. „Cóż, – mówi, oceniając prezydenta – muszę przyznać, że gość ma jaja. Mówił, że to zrobi, i to zrobił”.

Na pytanie o brak odpowiedzi ze strony Rosjan, stwierdza cynicznie: „Może chcą najpierw uzyskać zdolność robienia takich rzeczy, jak my”.

„To piękna historia na okładki pism. – kontynuuje – Mamy tu utajnioną operację z zaangażowaniem ekspertów w terenie i sprzętu korzystającego z tajnego sygnału. Jedynym problemem było podjęcie decyzji, by to zrobić”.

środa, 22 lutego 2023

Laboratorium zaawansowanej elektroniki i automatyki 81

 Laboratorium zaawansowanej elektroniki i automatyki 81

 Światowe inwestycje w niskoemisyjne technologie energetyczne po raz pierwszy przekroczyły w 2022 roku poziom 1 bln USD. Według szacunku Bloomberga są równe kapitałowi, który był potrzebny na wsparcie dostaw paliw kopalnych w 2022 roku, co też miało miejsce  po raz pierwszy w historii.
 Chiny są supermocarstwem w Zielonej Energetyce. Każdego roku dodana u nich zielona generacja energii jest większa niż cała generacja elektryczności niemałych państw !

Energia elektryczna produkowana w świecie z węgla (TWh, 2020)
Chiny 4631
Indie 947
USA 774
Japonia 274
Korea Płd 192
Afryka Płd 191
Indonezja 168
Rosja 155
Wietnam 141
Australia 135
Niemcy 134
Tajwan 117
Polska 110
Turcja 99
Kazachstan 72
Malezja 67
Filipiny 49
Kanada 45
Ukraina 38
Nawet natężone starania Polski w redukcji zużycia węgla dadzą globalnie tyle co NIC. Nasza gospodarka została zredukowana do 0.7 % globalnego PKB i nie ma się co „mocarstwowo” rzucać.
Jeśli ludzkość ma ograniczyć emisję CO2 to trzeba pomóc Chińczykom w energetyce jądrowej i hydroelektrowniach zamiast zmuszać ich do wyścigu zbrojeń.
Ale jeśli zmniejszymy w Polsce spalanie węgla to polepszy nam się stan zdrowia. Ale potrzebna jest alternatywna energetyka.

 Ostatnimi laty chińskie przedsiębiorstwa ogromnie zwiększyły liczbę wniosków patentowych dotyczących produktów z obszaru AI. Tencent i Baidu posiadają najwięcej patentów w dziedzinie uczenia maszynowego i sztucznej inteligencji w 2021 roku bo ponad ponad 9 tysięcy aktywnych patentów każda. Microsoft jest teraz na szóstym miejscu na świecie ale  jeszcze w 2017 roku był liderem.
 Pieniądze przeznaczone w Rosji na zbrojenia zdefraudowano i rozkradziono.
Co do wizyty prezydenta USA Joe Bidena w Kijowie w Ukrainie. Ta wygląda Niebo nad Kijowem oczami operatora rosyjskiego radaru na Białorusi i na pokładzie rosyjskiego samolotu z radarem.
A tak wygląda Niebo nad Kijowem oczami amerykańskich pilotów których tam „nie ma”.
 Stan wojennej rosyjskiej medycyny jest straszny. Wykres pokazuje stosunek liczby rannych do zabitych. Rosja cofnęła się w wojnie w Ukrainie do  światowego poziomu z końca XIX wieku.
Zycie rosyjskich żołnierzy dla dowódców jest nic nie warte. Jest bardzo tanie.
W czasie II wojny dopóki nie zapanował chaos niemieckiemu żołnierzowi i oficerowi za pozostawienie rannego kolegi groził sąd polowy. Sowieci nie grzebali nawet swoich zwłok.
„Pierwszą ofiarą wojny jest prawda” Kłamią wszyscy.
„Nie zapominajmy, że Anglia narzuciła nam tę wojnę”
 

Archiwum. Harmoniczne i moc bierna
Automatyczne mierzenie i testowanie półprzewodników i mikroelektroniki mocy.
 Fundamentem bogactwa wszystkich obecnych cywilizowanych  krajów był lub jest nowoczesny przemysł. Bez niego nie ma szans na zbudowanie dobrobytu. Nowoczesny przemysł jest jednak drogi ale bez niego nie ma modernizacji gospodarki narodowej.

 Obecnie wielki nowoczesny zakład produkcyjny w świecie o powierzchni 10 – 20 tysięcy m2 wytwarza układy scalone i półprzewodniki za blisko 1 miliard dolarów rocznie. Oczywiście jest bardzo drogi ale produkcja jest wysoce rentowna.  
Mikroelektronika staje się głównym nurtem rozwoju cywilizacji. Warto więc na temat mierzenia i testowania mikroelektroniki mocy spojrzeć odpowiednio szeroko.

 Erę mikroelektroniki rozpoczęło wynalezienie w potężnych Bell Laboratories tranzystora bipolarnego w 1948 roku i tamże tranzystora Mosfet w 1959 roku. W Bell Laboratories szukano elementu aktywnego który zastąpi  dużą, awaryjną, drogą i energochłonną lampę elektronową. Odkrycie tranzystora było więc wynikiem zdeterminowanej pracy. Idea tranzystora polowego była znana od 1936 roku ale nie było technologii pozwalającej użyteczny tranzystor wytworzyć.
Produkowane tranzystory germanowe były awaryjne i miały słabe i niestabilne parametry. Ponieważ lampy osiągnęły wysoki poziom rozwoju  wypieranie ich przez tranzystory nie było wcale szybkie. Produkowano specjalne lampy miniaturowe do zasilania bateryjnego pracujące przy napięciu anodowym 12 a nawet  nawet 6V !
Związek Radziecki technologie tranzystorów germanowych kupił od Japonii z którą pozostaje w stanie wojny. Polska w dużej mierze samodzielnie uruchomiła produkcje strasznie prymitywnych tranzystorów germanowych TG zastąpionych później przez modele ASY i AF. 

Stopowe tranzystory krzemowe produkowano w USA już od 1954 roku ale dużą częstotliwość  graniczną Ft  przyniosła dopiero technologia planarna. W USA w ogólnej linii ( firmy mają też wyłącznie swoje własne oznaczenia ) tranzystorów bipolarnych 2NXXX  na przełomie lat 50/60 przekroczono numer 700. Tranzystor 2N709 miał częstotliwość  Ft>800 MHz a jako inverter w logice miał czas propagacji  3-4 ns ! Na przełomie lat 60/70 numeracja tranzystorów przekroczyła 2N5000 a niewiele później dobrnęła do 2N6000 i rozwój tranzystora bipolarnego mocno zwolnił.
W Polsce znikomą własną produkcje tragicznych tranzystorów krzemowych BF505-506 zaniechano. W ZSRR opracowano ( w sumie wtedy udane ale już przestarzałe ) planarne tranzystory serii KT315 w obudowie plastikowej. Twórców obsypano nagrodami państwowymi. Niemniej w ZSRR nie są produkowane nowoczesne tranzystory bipolarne a tranzystory Power Mosfet nie są w krajach RWPG produkowane mimo iż w masowej produkcji w USA są od 1976 roku i później w Europie Zachodniej.  Polska kupiła radziecką linie do produkcji  tranzystorów KT315 ale w Polsce w obudowie metalowej TO18 nazwano je po selekcji  głupio ( to nie jest przecież tranzystor radiowy ) jako BF519-520-521 i słusznie  jako BC527-528. Znacznie lepsze parametry mają tranzystory produkowane na linii kupionej pół-legalnie do Francji ale te tranzystory pod koniec lat siedemdziesiątych były już mocno przestarzałe. „Rozwój” technologi CEMI był napędzany dolarami na jej import a gdy tych zabrakło po 1976-1978 roku  skończył się szybki rozwój !  CEMI nie potrafi uruchomić produkcji bardzo potrzebnych tranzystorów wysokonapięciowych mimo iż są  one  produkowane w ZSRR, NRD i Czechosłowacji.
Tranzystory wysokonapięciowe pojawiły się na początku lat siedemdziesiątych ale z racji niezasadnie wysokiej ceny nie od razu zdobyły popularność.  Obecnie każda japońska nowa maszyna CNC i robot przemysłowy mają serwomechanizmy z mostkami trójfazowymi z tranzystorami mocy Darlingtona w modułach.
Układy rodziny TTL i układy kalkulatorowe produkowano kupionymi używanymi ( i już zbędnymi producentom oryginalnym )  maskami ! Importowane chipy tranzystorów mocy 2N6488/6491 są w Polsce montowane w obudowie TO220 i znakowane jako BDP396/396. Polska w 1976 roku kupiła od RCA bardzo drogą licencje na kineskop kolorowy i przy okazji dostaliśmy też trochę masek dla starawych  układów scalonych i zezwolenie na zakup chipów tranzystorów. Tradycyjnie wszelkie informacje o zakupach licencji ostro cenzurowano.
  
Od końca XIX wieku centrum cywilizacji naukowo technicznej przesuwa się do USA a światową pozycję Europy osłabiły I II Wojny Światowe.
Choć rewolucja przemysłowa rozpoczęła się w Wielkiej Brytania to opóźnione Stany Zjednoczone rozwijając się szybciej od bogatej Europy szybko ją prześcignęły. Na USA wzorowały się skutecznie Niemcy i dalej Japonia.
„Kreatywna destrukcja” Josepha Schumpetera nazywa po imieniu proces modernizacji gospodarki kapitalistycznej następujący przez ciągłe burzenie przestarzałej technologii i wdrażanie nowej technologii.  Ten dynamiczny rozwój prawdopodobnie odbywa się tylko w systemie kapitalistycznym.
W USA i na całym zachodzie ogromnie wzrosła wydajność pracy w rolnictwie i spadło tam zatrudnienie w modernizowanym rolnictwie.
Stany Zjednoczone podwoiły produkcje przemysłowa  czasie II Wojny Światowej. Z uwagi na inflacje i stabilność systemu wykorzystanie mocy produkcyjnych nie powinno przekraczać  80% co ma wielkie znaczenie. W takich okolicznościach systemowych, gospodarkę powiększają tylko nowe wyroby bowiem na tradycyjne uzasadniony ( bynajmniej nie każdy !) popyt jest zaspokojony ! Stąd aż tak wielkie znaczenie wynalazków i innowacji na Zachodzie
 
Udział kosztu  zakupionych półprzewodników w cenie urządzenia elektronicznego lub z wbudowaną elektroniką zależy od rodzaju urządzenia. Wysoki jest w mikrokomputerach ale też przykładowo  w stacjach HVDC koszt zespołów kluczy z potężnymi tyrystorami przekracza nawet 25% kosztu całej stacji !  W najnowocześniejszej automatyce przemysłowej z mikrokontrolerami koszt układów scalonych nie przekracza 20% kosztu urządzenia. Znacznie wyższy jest w cenie tych urządzeń udział stworzonego oprogramowania !

Ogromny repertuar produkcji elementów elektronicznych i rynkowej elektroniki ma potężny koncern Philips. Ale aby mobilizować dział mikroelektroniki do wysiłku, konstruktorzy Philipsa wyrobów rynkowych stosuje najlepsze ich zdaniem wyroby ze świata ale w większości są to elementy Philipsa. Gdy jednak stosowane są obce elementy dział mikroelektroniki koncernu szybko wdraża nowość ! Jeśli potrafi.
Największym rodzimym ( w Niemczech fabryki ma też Philips ) producentem mikroelektroniki jest w RFN Siemens będący potężnym narodowym koncernem elektrotechnicznym Niemiec.

USA dyrygując zimnowojennym komitetem COCOM ograniczają krajom RWPG import nowoczesnej technologi a szczególnie mikroelektroniki. Pretekstami do wrogiego zaostrzenia kontroli technologii stał się najazd ZSRR na Afganistan i stan wojenny w Polsce. W zasadzie wszystko może być „podwójnego przeznaczenia”.

„Nielegalnie” firmy RFN transferują technologie do NRD licząc ze w końcu po odbyciu surowej kary RFN i NRD zostaną zjednoczone. Mikroelektronika NRD jest coraz nowocześniejsza a skala inwestycji w nią jest ogromna ale jej jakość jest taka sobie, prawdopodobnie z braku trudnych testów poprodukcyjnych.
Ponieważ CEMI stanęło technologicznie w miejscu, z braku mikroelektroniki cierpi cały nasz przemysł. Przykładowo z  jej braku malutka jest produkcja odbiorników TVC choć mamy bardzo drogo kupioną dużą fabrykę nowoczesnych ( jeszcze ) kineskopów kolorowych kupionych od RCA.

 Różne przyrządy pomiarowe produkowane są we wszystkich cywilizowanych krajach świata.  W USA dominują potężny Hewlett Packard oraz Tektronix i Fluke ale są też firmy niszowe. Mimo iż firmy te nie produkują wysoce specjalizowanych przyrządów to cyfrowo - analogowy charakterograf  Tektronix 576 z wkładkami umożliwia impulsowy pomiar z prądem kolektora / drenu do 200 A !
W USA systemy pomiarowe do przemysłu mikroelektronicznego dostarcza m.in. Fairchild System Technology, Teradyne, Honeywell...
HP w 1967 roku rozpoczął produkcje nowoczesnych minikomputerów 2116 z intencją sterowania zestawem jego przyrządów pomiarowych ale rodzina 2100 i kolejne pochodne szybko stały się też minikomputerami ogólnego przeznaczenia.
HP jako jedna z pierwszych firm szeroko zastosowała w swoich urządzeniach mikroprocesory. Nie znamy treści umów amerykańskich koncernów z rządem ale rzekomo koncerny odpowiedzialne są za propagacje najnowszych technologi w amerykańskiej gospodarce. To wyjaśnia dlaczego koncerny nie pozywają swoich byłych pracowników którzy weszli w posiadanie reglamentowanej wiedzy i zakładają swoje  innowacyjne firmy a nawet wynoszą programy, dane i dokumentacje.    
Znakomite przyrządy produkują koncerny Japonii a słabsze europejskie.
Oczywiście koncerny opracowuję też przyrządy pomiarowe tylko na swoje potrzeby. Ponieważ prace badawcze i konstrukcyjne są czasochłonne i kosztowne to opracowuje się tylko przyrządy których nie można kupić.

Katalog HP liczy blisko 500 stron jako że koncern ma sporą ofertę.
Przyrządy produkuje się w seriach od kilkudziesięciu sztuk rocznie ( zegar atomowy jest de facto sensorem !) do miliona sztuk  jak z prostymi miernikami. Jaki jest cel wydatkowania latami wielu milionów dolarów aby wyprodukować rocznie kilkadziesiąt zegarów atomowych ? Po to aby umieścić je na kilkunastu satelitach i stworzyć sieć precyzyjnej nawigacji na Ziemi z niedrogimi odbiornikami na statkach , wszelkich samolotach, części samochodów dowódczych no i na precyzyjnych rakietach ! Przecież to jest potężny przyszłościowy biznes !
Stany Zjednoczone od lat pięćdziesiątych pracują nad Automatyzacją Wojny i między ich funkcjonalnościami a siłą zbrojną ZSRR i Układu Warszawskiego  powstaje przepaść. W takim potężnym programie jest co mierzyć i liczyć !
Ledwie w pojedynczych tysiącach produkuje się automatyczne, skomputeryzowane chromatografy gazowe ale są to ogromnie użyteczne przyrządy w bardzo dochodowych i dobrze rokujących działach przemysłu.
HP w swojej ofercie ma zaawansowane i skomplikowane, skomputeryzowane przyrządy do telekomunikacji do zakresów mikrofalowych włącznie. W bloku RWPG telekomunikacja jest bardzo niedoceniana i hamuje nasz rozwój a jest to przecież spora gałąź gospodarki Zachodu.
Znakomite rokowania ma elektronika medyczna i nic dziwnego ze HP poszerza ofertę w tej dziedzinie.

Z niewielkim opóźnieniem autorzy  w „Hewlett Packard Journal” kompetentnie, ogólnie omawiają konstrukcje swoich produktów. Informacje z takich źródeł do książek trafiają z reguły po latach a nawet po dekadzie ! Podobne czasopisma wydają też inne potężne innowacyjne koncerny.
HP czasem załącza do swoich wyrobów Service Manual ( =SM). HP jako pierwszy w świecie wyprodukował na własne potrzeby w 1976 roku 16 bitowy mikroprocesor i to od razu w technologii CMOS. HP jest też sporym producentem mikroelektroniki ! Zatem konstrukcji z elementami produkowanymi na własne potrzeby nie da się naśladować. HP i inne koncerny, standardowe elementy zamawiane u producentów (w tym mikroelektroniki  ) każą znakować swoimi kodami !  Ta wredna praktyka jest coraz powszechniejsza w świecie. Ale w ogromnej większości przypadków domyślimy się co to jest za układ scalony na schemacie i w naturze na PCB.
Koncerny swoimi lobbystami zwalczają przepisy każące udostępniać SM ale też schematy.
HP stosuje w swoich wyrobach mikroprocesory Motoroli i własnego projektu ale oddział w Japonii stosuje inne procesory. 
Koncerny Japonii oferujące niewiarygodnie wysokiej jakości sprzęt Audio musiały wpierw opracować odpowiednie analizatory Audio !

 W HP Journal za artykułami są krótkie biografie autorów – konstruktorów pokazujące oczywistą rzecz jak kadry krążą po gospodarce. Koncerny produkujące broń są częścią gospodarki a te wielkie mają część cywilną i wojskową. Radar cywilny i wojskowy mają w zasadzie  ten sam schemat ale wojskowy ma solidną obudowę. Firma założona przez inżyniera Wiliama Boeinga jest obecnie największym w świecie producentem samolotów cywilnych i wojskowych ale tez rakiet militarnych i innego sprzętu ! Konkurent Boeinga Lockhead  ( to też założyciel ) też ma produkcje cywilną i militarną. Laboratoria badawcze tych koncernów są wspólne dla części cywilnej i militarnej.

Podział elektroniki na militarną, cywilną, profesjonalną, masową, przemysłową...  jest więc sztuczny i tylko zaciemnia obraz sprawy skoro istnieje Continuum rozwiązań wszędzie stosowanych. 

 Na rynku światowym oferowanych jest kilkadziesiąt grup przyrządów pomiarowych. Od prostych mierników dedykowanych do prac serwisowych do wyrafinowanych, skomputeryzowanych przyrządów laboratoryjnych często z sensorami fizycznymi, chemicznymi, biologicznymi. 
Lepsze przyrządy mają interfejsy do minikomputerów. Program komputera dokonuje sekwencji pomiarów, opracowuje pobrane z przyrządu / przyrządów wyniki i składuje je na dysku lub drukuje raport a najlepiej steruje linią produkcyjną. 

Obecnie posługujemy się systemem jednostek SI. Jednostki kształtowały się stuleciami. Przykład:
Galileo odkrył termometr w 1592 roku. Istniało wiele lokalnych skal temperatury i kompletny brak był standaryzacji. Słowo standaryzacja nie istniało i nie było powszechnej jej potrzeby w prymitywnej gospodarce z tylko lokalnym handlem.
Urodzony w Gdańsku holenderski fizyk Gabriel Fahrenheit  zastosował do wyrobu termometrów rtęć i w artykule z 1724 roku zaproponował swoją skale Fahrenheita.
Anders Celsius w 1742 roku zaproponował w skali temperatury dwa punkty topnienia lodu ( 0 C ) oraz wrzenia wody ( 100 C ), oczywiście w warunkach normalnych.
Lord Kelvin w 1846 roku wprowadził pojęcie temperatury zera absolutnego.

Zakresy pomiarów w mikroelektronice są ogromne:
-Prąd bramki pary różnicowej  JFet ( wzmacniacz do sensorów elektrometrycznych ) w optymalnym punkcie pracy wynosi 0.1 pA w temperaturze 20 C. Zbudowanie systemu z takim upływem wymaga przemyślnego użycia właściwych materiałów i mądrej konstrukcji. Prąd zwarciowy wielkich diod wynosi 100 KA. Daje to równe 18 dekad.
-Testowe napięcie szumów typowych tranzystorów niskoszumnych wynosi w paśmie 10-50 Hz  30 nVrms lub 0.11 uVpp. Napięcie niezrównoważenie wzmacniaczy z równoważeniem wynosi 1 uV. Napięcie wsteczne diod energetycznych  oraz napięcie wsteczne i blokowania Tyrystorów energetycznych sięga  8 KV a diod do transformatorów FBT 15 KV.
-Szumy wzmacniaczy operacyjnych bada się w paśmie od mHz( zrównoleglone układy pomiarowe z uwagi na duży czas pomiaru ) a nawet uHz  a najszybsze elementy mikrofalowe sięgają do częstotliwości 100 GHZ.

Skala trudności konstrukcji systemu pomiarowego szybko rośnie wraz z oddalaniem się w obu kierunkach od wartości średnich prądów, napięć i częstotliwości a w przypadku sensorów od średniej wartości fizycznego parametru.
Skonstruowane w Polsce na potrzeby produkcyjne CEMI automatyczne testery diod i tranzystorów obejmują tylko wartości najłatwiejsze z samego środka zakresów. Z publikacja znane są trywialne testery diod Zenera AKS-4 i tranzystorów M130, 136, 190.
Zbudowano dedykowane testery do układów stosowanych w odbiornikach telewizyjnych TDA1170 i  TDA2640 oraz dla stereodekodera UL1601 i  układu kalkulatora MCX74007. 

 Odczytu przyrządów analogowych dokonuje człowiek. „Cyfrowy” mechaniczny licznik zużycia energii elektrycznej, gazu i wody oraz licznik telefoniczny stwarzają problemy z jego zaszufladkowaniem.

 Granica między sensorami a przyrządami pomiarowymi jest płynna. Termopary lub RTD PT100 do pomiaru temperatury  mogą nie mieć żadnej elektroniki współpracując z  kontrolerem o specjalnych dedykowanych wejściach DLA NICH ale mogą ją mieć zintegrowaną i posługiwać się standardowym sygnałem wyjściowym 4-20 mA, 0-10 V lub sygnałem cyfrowym. Jednak część sensorów musi mieć zintegrowaną elektronikę. Sensor ciśnienia z rurką Bourdona i sensorem położenia LVDT musi mieć integralną elektronikę składająca się co najmniej ze stabilizowanego zasilacza, generatora sygnału zasilającego LVDT oraz detektora synchronicznego z filtrem. W termometrze kwarcowym sensorem jest rezonator kwarcowy o cięciu zapewniającym wysoki temperaturowy współczynnik zmiany częstotliwości. Sam ten sensor jest bezużyteczny.
 Urządzenie z którym współpracuje sensor ma z reguły wyświetlacz prezentujący pomiar z sensora.
W systemach automatyki sensory pracują najczęściej w obwodach (a) regulacji w pętlach sprzężenia zwrotnego a rzadziej tylko (b) alarmu lub (c) monitoringu.
To uświadamia nam że przyrządy pomiarowe w gruncie rzeczy pracują zawsze używane są co najmniej w takich samych celach a,b,c - stanowiąc tylko cegłę w całej budowli systemu.  

Przyrządy pomiarowe i kontrolne oraz profesjonalne używane są do zarabiania pieniędzy:
I.W pracach badawczo - rozwojowych i konstrukcyjnych
II.W każdej produkcji
II.W Serwisie   
IV.W usługach na przykład medycznych
V.W rozliczaniu zużycia energii, wody i gazu.

Praca przyrządów w systemowej pętli sprzężeń zwrotnym nie w każdym przypadku jest od razu oczywista.
Przyrząd może mieć sam swoją diagnostykę. Program z grubsza diagnozujący stan urządzenia z wbudowanym mikrokomputerem jest z reguły prosty. Komputer PC po włączeniu zasilania wykonuje Power On Self Test czyli POST.

 Silne nowoczesne koncerny wydają swoje prestiżowe Journale. Hewlett Packard Journal przynosi aktualną wiedzę a drukowane w Polsce książki są w stosunku do niego opóźnione 10-12 lat.
Artykuły w HPJ nie są obszerne i mając z nich ukierunkowująca wiedzę można już sięgnąć do najnowszych zachodnich periodyków.
 
 Licencyjne woltomierze z lampami NIXIE  V530 i 543 lub częstościomierz V549 obecnie tylko śmieszą swoim archaizmem. 

 Jakie przyrządy są potrzebne gospodarce do zarabiania nietrudno zgadnąć. Dział międzynarodowy rocznika statystycznego GUS pokazuje nam obszary mocnego niedorozwoju naszej gospodarki. Kopalnią złota jest obecnie mikroelektronika. Ale przykładowo bardzo mało, nawet na tle krajów socjalistycznych, produkujemy tworzyw sztucznych i nowoczesnej chemii. A produkcja mikroelektroniki używa bardzo nowoczesnej chemii.
Chromatografię gazową stosuje się w laboratoriach naukowych, przemysłowych i medycznych. Nowoczesny skomputeryzowany chromatograf jest niezbędny w zaawansowanym laboratorium petrochemicznym, farmaceutycznym, kosmetycznym, spożywczym i ochrony środowiska. Nietrudno zauważyć że nowoczesny Chromatograf pracujący z komputerem jest tam gdzie zarabia się już duże pieniądze a przyszłość tych dziedzin wygląda optymistycznie.
Po wojnie porzucono w świecie ciężką chemie bazującą na węglu kamiennym jako totalnie niekonkurencyjną do petrochemii bazującej na ropie naftowej i gazie ziemnym. Im szybciej porzucimy węglową drogę donikąd tym lepiej. 

 Informacje z przyrządów odbierany wzrokiem ( alarmowe też słuchem, syntezator może też tekst czytać  ) i analizujemy mózgiem. Zdaniem autora przyrządy cyfrowe powinny prezentować człowiekowi dobre wyniki ( ustalone, bez szumów i pulsacji.. ) 2-3 razy na sekundę a wyjątkowo 5 razy. Natomiast sygnalizacyjne diody LED powinny działać bez zwłoki.
Na  oscyloskopie obserwujemy stan ustalony sygnału lub zapamiętany specjalną lampą.
Drogą nowością są oscyloskopy cyfrowe.
Gdy rejestrowany na wstędze papieru piórkiem sygnał zmienia się za szybko powstaje nie niosąca informacji wypełniona czarna wstęga gdzie dobrze widać tylko ”obwiednie” czyli wartości najmniejsze i największe. Tak samo jest gdy za wolna jest podstawa czasu oscyloskopu.
Aby uniknąć aliasingu przed próbkowaniem sygnał trzeba poddać filtracji dolnoprzepustowej.

Woltomierz mierzy napięcie stałe lub zmienne według wartości RMS, średniej lub szczytowej. Miernik zniekształceń THD mierzy zniekształcenia sygnału sinusoidalnego. Może być niesamowicie dokładny i stwierdzić zniekształcenia rzędu 0.001 % ! Można mierzyć zniekształcenia intermodulacyjne. Częstościomierz mierzy częstotliwość sygnału. Wartość tych pomiarów to skalary. 
Oscyloskop jest uniwersalnym przyrządem pomiarowym. W dokumentacjach urządzeń elektronicznych z reguły umieszczone są oscylogramy z różnych miejsc układu elektronicznego.
Obraz z ekranu oscyloskopu człowiek może względnie łatwo porównać z oscylogramem w dokumentacji ale sensowna automatyzacja tego porównania jest trudna. W przypadku oscyloskopu cyfrowego pokazany na jego ekranie wykres pochodzi z 256-512 próbek z szybkiego przetwornika ADC. Zatem wynik pomiaru to spory wektor. Z wektora tego można wyliczyć szybką transformatę Fouriera FFT i porównanie może stanie się łatwiejsze ale to nie jest właściwa droga. 
Często podana jest na oscylogramie w dokumentacji wartość szczytowa sygnału i jego częstotliwość.

Zawężająca Funkcja Mieszająca ( Hash) z obszernej przestrzeni nazw tworzy stosunkowo mały adres miejsca gdzie może (ale nie musi ) być zapisana poszukiwana informacja z tą nazwą. Oczywiście dochodzi do kolizji różnych nazw dających taki sam wynik mieszania czyli adres. Kod kontrolny do pliku to też funkcja mieszająca Hash. Mieszanie stosowane jest też w kryptografii.
HP w swoich analizatorach  logicznych stosuje wyliczenie sygnatury ( to skalar ) dla ciągu z sygnału cyfrowego.  To też jest funkcja zawężająca.
Czy zamiast oscylogramu powtarzalnego sygnału można dać kilka pomiarów skalarnych aby sygnał bardzo dobrze scharakteryzować godząc się na quasi analog opisanej kolizji to znaczy że bardzo rzadko te skalary nie będą w 100% miarodajne dla oscylogramu.
Gdy oscylogramem jest sinusoida lub quasi - sinusoida lub prostokąt wystarczy podać jej napięcie zmienne AC ( najlepiej skuteczne RMS ) i częstotliwość.
Ale sygnał na kolektorze wysokonapięciowego tranzystora mocy odchylania poziomego H-Out jest bardziej skomplikowany. Jednak wystarczy podać jego wartość średnią czyli napięcie DC ( jest tylko trochę ca 1 V mniejsze niż napięcie zasilające 110-140 Vdc podane do transformatora FBT i gdy już było ono mierzone pomiar ten jest zbędny )  i  wartość skuteczną RMS lub wartość szczytową  i tylko ewentualnie częstotliwość. Czy parę skalarów niesie całą informacje ? Gdy stosowany jest szybki tranzystor w w stopniu H-Out dławik z rdzeniem ferrytowym „perełką” obniża emisje zakłóceń radiowych przewodem do zespołu odchylania poziomego. Proste sygnatury nie wychwycą braku „perełki” ale nawet obserwacja przebiegu oscyloskopem tego nie wychwyci. Z drugiej strony zamontowanie samego drutu bez perełki ferrytowej jest mało prawdopodobne
Czyli w danym miejscu układu jeden lub kilka ODPOWIEDNICH skalarów zastąpią informacje z oscylogramu !
Wiedzę studenta ocenia się testami. Zawężenie stanu wiedzy do wyniku testu jest ogromne a jednak się z nim godziny jako wiarygodnym miernikiem. Niech test pojedynczego wyboru ma 4 pozycje. Każdy wybór kodujemy dwoma bitami i 32 odpowiedzi dają 64 bity czyli dokładną liczbę zmiennoprzecinkową ! Zawężenie jest mocne.

Gdy prądy sieciowe są zniekształcone harmonicznymi ( i też inaczej ) użyteczny przyrząd stosując preemfazę pokaże nam jak głęboki musi być derating konkretnego transformatora energetycznego i czy on jest lub może być zagrożony lokalnym przegrzaniem uzwojeń. Pokaże nam ile stopni trzeba dodać do normalnie mierzonej temperatury aby otrzymać temperaturę gorących miejsc uzwojenia transformatora. Oczywiści ten prąd można tez opisać harmonicznymi ( łatwe do wyliczenia FFT ) które po preemfazie i skwadratowaniu trzeba zsumować.. uzyskując ten sam efekt co analogowo. 

Informacja z przyrządów podlega ocenie, zrozumieniu, interpretacji i na jej podstawie podejmowana jest decyzja przez człowieka lub program. System może funkcjonować ze sprzężeniami zwrotnymi. Nawet jak sprzężeń zwrotnych nie widać od razu to one często jednak istnieją
W amerykańskich okrętach podwodnych sygnały z hydrofonu po analizie fourierowskiej porównywane są z bibliotecznymi widmami typowymi dla radzieckich okrętów nawodnych i podwodnych. Ten system pomiarowy pracuje w systemie gdzie jednak decyzje na podstawie dostarczonych informacji  podejmują ludzie.
Jednym z podstawowych przyrządów diagnostycznych medycyny jest EKG. Jak dotychczas nie ma możliwej do wytworzenia z sygnału EKG jednej sygnatury wskazujące czy serce jest zdrowe czy chore. Można jednak zarejestrowane EKG dopasować do wzoru z kilkudziesięciu ponumerowanych wzorów różnych zaburzeń – chorób serca. Znów jest drastyczne zawężenie.
W analogowym EKG wzmocniony sygnał z elektrod umieszczonych na ciele pacjenta steruje położeniem piórek kreślących wykres EG na przesuwanej wstędze papieru. Ale sygnał może tez być pokazany na analogowym monitorze nad łóżkiem chorego lub w dyżurce pielęgniarek.
W cyfrowym aparacie EKG sygnał analogowy po filtracji dolnoprzepustowej podany jest do przetwornika ADC i zapisywany przez procesor w pamięci RAM. Dane z pamięci mogą być wydrukowane przez drukarkę termiczną EKG. W sumie funkcjonalność cyfrowego EKG jest taka sama jak analogowego – nie ma znacznego wzrostu funkcjonalności.
Ale cyfrowy tor EKG może być wbudowany w  przenośny defibrylator jak na przykład w modelu od HP. Program analizujący w czasie rzeczywistym sygnał z serca wyznaczy (opisany w HPJ  algorytm z filtracją środowoprzepustową jest stosunkowo prosty ) optymalny synchronicznie moment defibrylacji a ten moment jest bardzo ważny dla efektywności defibrylacji. Dodatkowo powstający od razu wydruk analizuje lekarz / pielęgniarka  i jest on włączony do dokumentacji pacjenta. Tu „cyfrowość” dała już konkretne korzyści. Trwają prace nad wiarygodnymi programami komputerowymi do automatycznej klasyfikacji i rozpoznawania EKG. Obecnie algorytmy - programy są nie doskonałe ale postęp jest znaczny. Defibrylator z takim programem mógłby sam bez kwalifikacji lekarza  zadecydować czy defibrylacje należy w ogóle przeprowadzić.
Zatem pewnie kolejnym krokiem będzie przesłanie do komputera danych z pamięci aparatu EKG aby można było automatyzować diagnostykę pacjenta i stworzyć cyfrową dokumentacje pacjenta na twardym dysku a do taniej archiwizacji na taśmie magnetycznej. Koszt jednego bajta zapisanego na HD maleje i maleje od 25 lat. A pojemność HD rośnie i rośnie. Gdy pogotowie dostarczy pacjenta, szybko możemy w dowolnym szpitalu pobrać z serwera jego historię choroby i poczynić adekwatne czyli skuteczne czynności. 
   
Połączoną z komputerem PC wagą ze wzrostomierzem można szybko, rutynowo zdiagnozować całe szkoły. Wzrost i waga są tu sygnaturami. Uczniów za niskich i chudych trzeba skierować na szkolne dożywianie a z rodzicami grubasków porozmawiać. Z analizy danych o rodzicach i rodzinie tych uczniów można wyciągnąć wnioski statystyczne potrzebne do prowadzenia sensownej  polityki.
Wyniki badań laboratoryjnych krwi i moczu pacjenta to też tylko kilka liczb.
Ale zdjęcie RTG to już obraz i wielka ilość danych. Ale w komputerowej historii chorób osoby umieszczamy tylko tekst fachowego opisu zdjęcia wykonany przez lekarza specjalistę ale … za ileś lat gdy bajt ogromnie stanieje...
W przypadku zdjęcia RTG uzębienia znów opis zębów do leczenia jest mały.

Określenie przyrząd lub system pomiarowy jest pojemne znaczeniowo. Oznacza też zautomatyzowane laboratorium gdzie rząd automatycznych pipet napędzany serwomechanizmem kolejno dozuje różne substancje do 100-200 równolegle obrabianych próbek w pojemniczkach, które są następnie analizowane spektroskopem i chromatografem. Taki przyrząd jest bardzo potrzebny w laboratorium przemysłu farmaceutycznego do poszukiwania nowego leku czy też laboratorium genetyki. Populacje „Zachodu” się starzeją i nas później też to czeka. Zatem lekarstw będzie potrzeba coraz więcej i rzecz jasna coraz droższych. Eksportowa produkcja lekarstw jest bardzo wysoko rentowna.

Przemysłowy sensor z interfejsem 4-20 mA lub interface szeregowym jest pół przyrządem pomiarowym ponieważ nie ma wyświetlacza.

 W przyrządach pomiarowych ostatecznie na wartość cyfrową przetwarzane są analogowe napięcia lub czasy ale też częstotliwości.
W kolejności czasu procesu przetwarzania analogowo – cyfrowego są to próbujące przetworniki A/D Flash ( w odmianach ) i  przetworniki Aproxymacyjne ( przetwornik DAC z rejestrem aproksymacyjnym i komparatorem ), oraz połowicznie próbkujące podwójnego lub wielokrotnego całkowania oraz niepróbkujące Sigma Delta.
Próbkujące przetworniki ADC i DAC z  jednym zboczem sygnału odniesienia rosnącego liniowo mogą być średnio szybkie przy małej rozdzielczości i dużej częstotliwości taktowania liczników.
Koncern SONY w swoich przetwornikach DAC i ADC do systemów płyty kompaktowej CD stosuje dwa prądy liniowo ładujące kondensator integratora . Zgrubny prąd odpowiada za 8 starszych bitów i prąd 256 razy mniejszy odpowiada 8 mniej  znaczących bitów. W przetworniku ADC stosowany jest komparator napięcie i dwa zliczania czasu a w przetworniku DAC liczniki odmierzają czasy z podanej cyfrowej próbki sygnału.
Sony zaimplementował takie ADC i DAC w nieskomplikowanym cyfrowym układzie scalonym ale elementy analogowe kompletnego systemu są zewnętrzne. Jest ich jednak rozsądna ilość i są to elementy o umiarkowanej jakości i cenie.

Najprostszym jednobitowym przetwornikiem ADC jest komparator. Jednokanałowy spektroskop jądrowy ma komparator okienkowy poprzedzony wzmacniaczem szerokopasmowym sygnału z sensora  o programowalnym wzmocnieniu. Programowalna jest też szerokość kanału. Sygnały z tego prostego „analizatora” podane są do licznika. Przed prezentacją sygnały przetwarzane są programowo.
Taki spektroskop jest bardzo użyteczny w medycynie nuklearnej, metalurgi (m.in. mierzenie grubości walcowanych blach ), ochronie środowiska, w badaniach w dziedzinie biologi i chemii oraz w laboratorium izotopów.

Aby uniknąć zakłócającego aliasingu przed przetwornikami ADC próbującymi trzeba stosować selektywny filtr dolnoprzepustowy i układ próbkująco - pamiętający o ile nie ma go wbudowanego fizycznie lub ideą  sam ADC.
Cenną cechą przetworników  A/D z podwójnym całkowaniem  jest specyficzna filtracja dolnoprzepustowa sygnału wynikająca z samej idei przetwarzania. Gdy czas całkowania sygnału wejściowego jest taki jak okres (lub jego wielokrotność ) sygnału zakłócającego to jego tłumienie jest nieskończone.
Gdy mierzona jest składowa stała w „wyprostowanym” ( m.in synchronicznie ) sygnale ze składową zmienną użycie metody A/D podwójnego całkowania jest efektywne. Gdy sygnał pomiarowy pochodzi z wbudowanego syntezera z pętlą PLL ( scalone syntezery RF są już masowo produkowane i są tanie ) lub powstaje metodą DSS a podstawę czasu systemu stanowi jeden wspólny generator kwarcowy, program może dostosować czas całkowania tak aby był wielokrotnością okresu sygnału.
Przetwornik wartości skutecznej RMS ma wbudowaną konieczną wstępną dolnoprzepustową filtracje sygnału i z reguły bez dodatkowej filtracji sygnał z takiego przetwornika podaje się do całkującego przetwornika A/D, który go dalej dostatecznie filtruje.
Ale napięcie użyte do decałkowania w ADC podwójnego całkowania nie może mieć tętnień. Gdy do pomiaru ratiometrycznego chcemy użyć ( jako odniesienia ) „wyprostowanego” sygnału z tętnieniami w czasie całkowania sygnału w przetworniku ADC podwójnie całkującym,  równolegle w dodatkowym integratorze całkowany jest sygnał odniesienia użyty następnie do decałkowania w ADC. Taką metodę zastosowano m.in. w bardzo dokładnym urządzeniu HP4276 do pomiaru RLCZDQ. Pomiar odbywa się przy wybranym programowo sygnale o częstotliwości 100 Hz do 20 KHz wytworzonym przez syntezer. Czasy całkowania są wielokrotnościami okresów sygnału.

W pomiarze ładunku samo mierzone  zjawisko ładuje kondensator i jest tylko faza decałkowania. Ładunek Qrr diody czy tyrystora można mało dokładnie  wyliczyć z oscylogramu prądu ale dokładnie ten ładunek można bezpośrednio, łatwo i szybko zmierzyć !   

Rozdzielczość pomiaru czasu licznikiem jest ograniczona częstotliwością  jego taktowania.  W peryferyjnych układach mikroprocesorowych CTC i Mikrokontrolerach z uwagi na konieczność ich odczytu przez procesor stosowane są liczniki synchroniczne a w przypadku taktowania zewnętrznego przychodzący sygnał jest wpierw synchronizowany do wewnętrznego taktu zegara przerzutnikiem. Są to więc liczniki powolne. Można je poprzedzić licznikami w technologii TTL, szybkiej CMOS lub ECL ( do 500 MHz ) ale stan tych liczników trzeba odczytywać dodatkowymi portami co komplikuje układ. Masowe Preskalery pokrywają częstotliwość do 1.3 GHz. 
Gdy wymagana jest wysoka rozdzielczość pomiaru czasu stosowany jest Analogowy  Ekspander Czasu lub metoda Podwójnego Noniusza Elektronicznego. Analogowy Ekspander jest stosunkowo prosty. W bardzo krótkim mierzonym czasie kondensator analogowego ekspandera jest ładowany znacznym prądem. Prąd (5...40 mA) reguły dostarcza przełączana para różnicowa z tranzystorami o Ft > 5 GHz. Napięcie z kondensatora ekspandera mierzone jest potem typowym przetwornikiem ADC.
Rozdzielczość czasu metody Podwójnego Noniusza Elektronicznego, autorstwa HP, jest już lepsza od 10 ps i dalej rośnie.

 Koncerny oferują też generatory sygnałów analogowych i cyfrowych. Do uruchamiania układu z mikroprocesorem przydatne są  Analizatory logiczne.

 W Europie największym producentem mikroelektroniki jest Philips. Oprócz układów ogólnego ( często jako drugi producent ) zastosowania jak rodziny logiki, wzmacniacze operacyjne, komparatory, regulatory napiec ciągłe i impulsowe... oferuje on swoje układy dedykowane do zastosowania, często ekstremalnie skomplikowane. Bardzo skomplikowane są układy do teletekstu. Skomplikowane są mikrokontrolery z bardzo rozbudowanymi peryferiami. Philips na licencji Motoroli produkuje procesory i układy peryferyjne rodziny 68K. Ale sam na bazie podstawowego procesora tej rodziny  zaprojektował zgodny programowo mikrokontroler 68070. Z publikacji wynika że jest on dedykowany do samochodowego komputera z ekranem LCD który będzie miał napęd CD jako wymienną pamięć  ROM pojemności 650 MB.
Większości układów dedykowanych nie można użyć do innych celów niż przeznaczonego dla nich. Ale syntezery częstotliwości PLL do 1 GHz z szeregowym interface I2C do głowic w odbiornikach TVC można użyć w każdym innym celu, także w przyrządach pomiarowych.  Niższy zakres częstotliwości mają syntezery PLL do radiotelefonów. Różne zastosowanie mogą znaleźć także preskalery wykonane w wariacji technologi ECL na zakres do 1...1.5  GHz. 
Interfejs I2C mają układy kodera i dekodera DTMF, syntezera głosu i różne drivery do wyświetlaczy LCD. Mankamentem interfejsu I2C jest konieczność zakupu od Philipsa „royalties” aby móc posługiwać się logo I2C. Ale koncerny Japonii produkują identyczne funkcjonalnie układy z innym interface bez royalties.
Zrównoważone mixery z generatorami do częstotliwości  1 GHZ do głowic odbiorników TVC także można stosować w dowolnym zastosowaniu.

 Nowoczesne przyrządy mają wbudowany mikrokontroler – mikrokomputer lub mikrokomputer zbudowany wokół mikroprocesora. Zawiaduje on pracą kontrolowanego systemu wykonawczego jądra przyrządu oraz obrabia dane i prezentuje wyniki na wyświetlaczu i skanuje klawisze. Z reguły jednak przyrządy mają tylko prosty wyświetlacz i niewielką ilość klawiszy. Wyrafinowane przyrządy są bardzo drogie. Przyrządem może interfejsem ( jeśli takowy jest ) sterować i  odbierać od niego dane typowy mini lub mikrokomputer. Przetwarzanie tych danych może być bardzo pożądane i użyteczne
Proste mikrokomputerki 8 bitowe kosztują od stu do 700 dolarów. Natomiast komputer PC – składak z Tajwanu ciągle kosztuje 1000 dolarów mimo iż „moc” tych komputerów rośnie bardzo szybko. W nowych przemysłowych systemach automatyki PC praktycznie wyparły inne minikomputery. Nic dziwnego skoro słaby komputerek z rodziny PDP-11 kosztował ponad 20 tysięcy dolarów.   
 
 Elementarne czynności składają się w przyrządzie na ich sekwencje.  Złożone logiczne układy sekwencyjne głównie asynchroniczne na przekaźnikach, tranzystorach i układach scalonych używano w:
-Centralach telefonicznych. System w dużej ilości używał przekaźników mających nawet po kilkanaście zestyków
-Sterowaniach Numerical Control i robotów przemysłowych. Ostatnie systemy NC miały do 1000 układów scalonych
-Sterowaniach logicznych synchronizowanych ulicznych sygnalizacji świetlnych
-Sterownikach używanych w przemyśle i różnych urządzenia jak na przykład elektroniczny wtrysk paliwa.
-Przyrządach pomiarowych. Uniwersalny licznik – częstotliwościomierz HP z 1968 roku wraz wbudowanym „programowalnym” (mikro wtyczki na polu krosowym) przelicznikiem miał ponad 500 układów scalonych

Te układy zastępowano logiką zbudowaną na  komputerach.
-W pierwszej centrali „elektronicznej” ( komutacja jest w niej elektromechaniczna ! ) ESS No1 do sterowania zastosowano tranzystorowy komputer. Ma on również specyficzne rozkazy optymalne dla  zastosowania w sterowaniu centrali. Z uwagi na rosnącą popularność automatycznych usług komputer od części zadań logicznych ( obsługa procesu wybierania numeru tarczą telefonu lub z dekoderem DTMF ) zwolnił później wyspecjalizowany „Signal Processor” Nazwa ta jednak ze współczesną treścią nie ma nic wspólnego. Cały system ESS No 1, łącznie z komputerem,  szczegółowo opisano w BSTJ. Komputery central komunikowały się łączami szeregowymi co pozwoliło szybko zautomatyzować całą sieć telefoniczną na kontynencie. Sterowanie zastosowane w licencyjnych centralach E-10 jest przy rozwiązaniach Bella idiotyczne. W 1977 roku zmodernizowane sterowanie ESS wykonano na dwóch 8 bitowych mikroprocesorach o specyficznych rozkazach. O ile automatyczne usługi „telefoniczne” przyjęły się w USA to są mało popularne w świecie a w Polsce nie ma ich praktycznie wcale. Przykładów na to że Ameryka potrafi szeroko użyć komputerów do innowacyjnego zarabiania jest cała masa. Europa Zachodnia naśladowczo ciągnie się za USA. Z kolei światowym liderem stosowania robotów w przemyśle jest Japonia i tylko tam stosuje się je rutynowo.

-Systemy CNC zastępujące systemy NC budowano na komercyjnych minikomputerach ale z uwagi na ich wysoką cenę i małą użyteczność szeroko stosowano własne mini i mikrokomputery. ASEA w pierwszym w świecie robocie elektrycznym w 1974 roku sterowanie wykonała na prymitywnym mikroprocesorze Intel 8008. Największym obecnie światowym producentem sterowań CNC jest potężny japoński Fanuc. Od 1979 roku  jego sterowania zbudowane są kolejno wokół Intela 8086, 80186 i 80286. 
-Sterowniki synchronizowanych ulicznych sygnalizacji świetlnych od 1975 roku wykonywane są na mikroprocesorach i mikrokontrolerach.
-Programowalne sterowniki PLC obecnie budowane są już na standardowych procesorach. -Pierwszy w świecie elektroniczny wtrysk paliwa Boscha zbudowany był na tranzystorach. W nowszych modelach użyto wyspecjalizowanych układów analogowych i cyfrowych. Najnowsze modele stosują już mikrokontrolery a dla oszczędności hardwaru zastosowano wyspecjalizowane układy peryferyjne.  
-Praktycznie wszystkie wydajne przyrządy pomiarowe mają wbudowany system z mikroprocesorem lub mikrokontrolerem.

Wewnętrznym jądrem systemu sterującego każdy mikroprocesor, także z mikroprogramem, jest SM. 
State Machine wykonana programem mikrokontrolera jest bardzo powolna na tle sprzętowej SM. Czas reakcji mikrokomputera na przerwanie zależy od wykonywanej właśnie instrukcji. Gdy wykonywane jest mnożenie lub dzielenie ( nie każdy procesora ma takie rozkazy ) czas reakcji  jest bardzo długi.
Popularne komputerki 8 bitowe mają pamięć masową na kasecie magnetofonowej. Dekodowanie odtworzonego magnetofonem sygnału  wykonuje program. Natomiast kontroler miękkiego i twardego dysku do znacznie lepszego komputera jest sprzętowy. Iloraz szybkości strumieni bitów dochodzi do 10 000 razy.
W sterownikach PLC sygnały próbkowane ( aby uniknąć niejednoczesności próbkowania wejść w programie i możliwych błędów z tego powodu ) i emitowane są co circa 10 ms co typowo jest zupełnie wystarczające. Komplikacje programu limituje w praktyce tylko wielkość pamięci.
W „elektronicznych” centralach  ESS No1  część czasu procesora komputera zwolniono stosując wyspecjalizowany logiczny „Signal Processor” zajmujący się procesem wybierania numerów tarcza telefonów i dekoderami tonowymi DTMF. Zwolniony czas komputera wykorzystano do odpłatnego świadczenia usług telefonicznych .  

Sprzętowa SM może być wykonana  na układach logicznych lub układzie programowalnym lub w Gate Array. 

Obecnie szybkie sygnały przetwarza się jeszcze głównie  analogowo. Szybkie przetworniki ADC Video produkowane są w małych ilościach po bardzo wysokich cenach. Stosowane są w studyjnym sprzęcie Video, wyrafinowanych radarach cywilnych i wojskowych, sprzęcie do  poszukiwania surowców w Ziemi oraz w najnowszym sprzęcie medycznym i wyrafinowanej aparaturze pomiarowej.
Firma ITT od 1982 roku oferuje zestaw cyfrowych procesorów do cyfrowego odbiornika TVC. Sygnał Video jest przetwarzany w 7 bitowym ADC  Flash z częstotliwością cztery raza podnośna PAL czyli 17.72 MHz. Co linie zmieniany jest offset dla powiększenia efektywnej rozdzielczości ADC. Przetwornika  ADC wbudowanego w jeden z układów nie można jednak użyć w dowolnym celu. Ale Philips produkuje niedrogi układ 7 bitowego przetwornika ADC PNA7509 próbkującego maksymalnie z częstotliwością 22 MHz.
W tymże 1982 roku japoński NEC wypuścił pierwszy komercyjny procesor sygnałowy DSP a po nim Texas Instruments linie procesorów DSP TMS320.
Prawo Moore'a działa i pora pomyśleć na zastosowaniem DSP. 

 Na jednostkowy koszt układu scalonego składa się koszt projektu oraz koszt produkcji. HP do swoich przyrządów produkuje m.in. złożony wielofunkcyjny układ szybkich liczników i syntezera częstotliwości o ogromnej rozdzielczości z modulacja PM lub FM, układy monolityczne i hybrydowe do cyfrowych oscyloskopów i linijki CCD do spektrometrów. Może to robić bo jest największym producentem przyrządów pomiarowych w świecie. Koncern jest zarazem niemałym producentem specyficznej mikroelektroniki.

 Systemy informacje człowiekowi przekazują wyświetlaczami. Na prostym cyfrowym wyświetlaczu LED lub LCD informacji jest niewiele. Ale HP od 1979 roku produkuje alfanumeryczne wyświetlacze LED ( w katalogu jest prosty program do obsługi wyświetlaczy na mikroprocesory 6800 i 8080 ) i coraz większa jest produkcja wyświetlaczy LCD i mikrokontrolerów bezpośrednio je obsługujących.
Ale dużą ilość informacji wyświetla się dopiero na ekranie kineskopu monitora lub telewizora jako monitora. Przyrządy pomiarowe i kontrolery PLC są szeregowymi interfejsami połączone z komputerem „ogarniającym” wraz  z operatorem całość zadania selektywnie prezentowanego na ekranie monitora.

 Coraz większe znaczenie ma z jednej strony jak najmniejszy tranzystor scalony w wielkiej ilości w procesorze i pamięci i jak największy jako klucz energoelektroniczny. Ale ten wielki chip tranzystora mocy to równolegle połączona duża ilość małych tranzystorów.

 Tranzystor (1948) a następnie tyrystor (1950) wynaleziono w potężnym Bell Laboratories. Tam też zaczęto charakteryzować tranzystory parametrami. Z reguły normy opracowane przez koncerny na swoje wewnętrzne potrzeby po modyfikacjach stają się normami krajowymi i międzynarodowymi. Bardzo pożyteczne są normy IEC i Polska wzorem innych krajów winna te normy po prostu tłumaczyć lub bez tłumaczenia dodać im dodatkowe oznaczenie porządkowe PN. W tym kierunku idą nawet Zachodnie Niemcy ze swoimi rozsądnymi normami DIN.
Tranzystory i tyrystory są towarem handlowym. Stąd definicje ich parametrów objęte są normami, w których pokazano też układy pomiarowe dla tranzystorów i tyrystorów. Układy te według PN... wymagają udziału człowieka w procesie. Pomiary te są okropnie powolne i niepewne.

Możliwości pomiarowe oferowanych do produkcji mikroelektroniki systemów nie obejmują kluczy dużej mocy.

Patent: Uceo i drugie przebicie oraz U(br)ds
 Tranzystor jest charakteryzowany skalarnymi parametrami będącymi wartościami funkcji w określonym  punkcie pracy oraz wykresem pracy bezpiecznej SOA.
Siemens  i Philips dla podstawowych tranzystorów BC katalogowe napięcie U(br)ceo podają przy prądzie kolektora 10 mA a rzadziej 2 mA z adnotacją „Absolute Maximum Rating System IEC 134” Pierwsze wydanie tej normy było w 1961 roku ale jest ona modernizowana.
Parametr U(br)ceo w rzeczywistości jest funkcją od najmniej zmiennych Ic i T. Uceo(Ic) spada wraz z prądem Ic aż do średnio dużych jego wartości czyli tranzystor ma ujemną oporność przy małych i średnich prądach toteż przy prądzie 10 mA szansa że będzie generował (odcinek charakterystyki o ujemnej oporności ) zakłócenie fałszujące pomiar jest mała. Uceo powinno być najmniejszą wartością funkcji  U(br)ceo ( Ic, T) przy wszelkich dopuszczalnych  Ic i T
Przy prądzie Ic=10mA w tranzystorach BC o większym Uceo traci się większa  moc niż dopuszczalna statycznie w stanie ustalonym. Pomiar jest jednoznaczny i wartościowy. Pomiar jest krótki i temperatura chipa jest bezpieczna ale można celowo chip precyzyjnie nagrzać ( informacja o temperaturze jest w Ube ) aby szybko zmierzyć jego prąd upływu, który w temperaturze pokojowej jest grubo poniżej <0.1 nA i trudny prostą głowicą do szybkiego pomiaru ale bardzo szybko rośnie z temperaturą.

 W energoelektronicznych zastosowaniach napięcie Uceo tranzystora - klucza ma ogromne znaczenie. Dla uproszczenia zwykle wykres SOA jest tylko do napięcia Uceo ale przy ujemnym prądzie bazy tranzystor jest kontrolowany także powyżej napięcia Uceo ale z uwagi na coraz mocniejszą lokalizacje mocy energia impulsu musi być mała. Czasem dla tranzystorów przełączających SOA zawiera też obszar dopuszczalnej kombinacji Uce i Ic przy ujemnym wysterowaniu napięciem bazy gdzie prąd kolektora bardzo szybko zanika.
Układy mostków zawsze dla bezpieczeństwa zasilane są napięciem mniejszym od Uceo ! Natomiast pojedyncze klucze w SMPS ze snubberem gwarantującym przy wyłączeniu spadek prądu kolektora do zera zanim napięcie wzrośnie do Uceo pracują z napięciem impulsowo większym od katalogowego (I) Uceo.
W zasadzie z napięciem znacznie większym od Uceo pracują tylko tranzystory w układzie odchylania poziomego TVC H-Out.

Dla tranzystorów mocy katalogowy impuls pomiarowy jest często relatywnie słaby na tle tranzystorów małej mocy.  Motorola tranzystorom mocy do 200 W i napięciu Uceo do 140 V podaje impuls prądu 200 mA o czasie 300 usec a napięcie nazywa Uceo(sus).
Napięcie Uceo na tranzystorach odchylania poziomego H-Out BU208A-BU508A mierzone jest po rozłączeniu ( Ib=0) przez nie prądu Ic=200 mA  w indukcyjności 25 mH. Ponieważ napięcie na tranzystorze rośnie dość wolno faktycznie a prąd w dławiku w tym czasie spada napięcie Uceo osiągają przy prądzie  ponad 150 mA.  Energia tego impulsu jest mała na tle gwarantowanego obszaru SOA tych tranzystorów.

Zjawisko drugiego przebicia jest znane i wyjaśnione fizyką od dawna. Udoskonalono projekty i produkcje tranzystorów mocy aby ich SOA był szeroki. Tranzystor mocy Motoroli czy Toshiby lub Tesla KD503 ma realnie szeroki obszar SOA. Technicy żartobliwie określają je jako ”pancerne”. Ale tak samo oznaczony (Industry Standard) tranzystor innego producenta jest delikatny i po czasie pracy w urządzeniu  ulega uszkodzeniu ! Nieniszczący test potwierdza faktyczny obszar SOA. Dla marnego producenta tranzystor wchodzi w II przebicie w gwarantowanym obszarze SOA gdy nie powinien a porządny toleruje  >50% energii więcej niż musi.

Obszar SOA jest wykreślony na wykresie katalogowym w skalach logarytmicznych. Stałoprądowo pełną moc tranzystor może ( nachylenie odcinka 45 deg ) tracić tylko do określonego napięcia Uce. Wynosi ono od 7 do 100 V a obecnie typowo 30 V. Oczywiście im jest ono większe tym tranzystor jest mniej podatny na II przebicie. Nachylenie dalszego / dalszych odcinków jest większe i moc spada z napięciem Uce osiągając najmniejszą wartość przy Uceo gdy Ib=0. Impulsowy obszar SOA jest zawsze szerszy ale w części tranzystorów tylko trochę szerszy ale w innych jest dużo szerszy bo ma to podstawowe znaczenie dla zastosowania tranzystora. Na przykład tranzystory Darlingtona do samochodowego zapłonu muszą mieć potężną tolerancje i produkowane są zmodyfikowaną zastrzeżoną technologią. Część tranzystorów Darlingtona ( w tym BD646-652 ) ma to napięcie aż 60 V a dedykowane tranzystory Japońskie aż 100 V !     
Rzetelnie napięcie Uceo czy jak je zwał  U(br)ceo i  Uceo(sus) powinno być mierzone silnym  impulsem na granicy obszaru SOA. Im prąd impulsu  jest większy tym bardziej wiarygodny jest test – pomiar.
Philips tranzystorom Darlingtona w obudowie TO220 BD646-652 o Ic=8 A i Ptot=62.5 W oraz Uceo 60-120 V, deklaruje przeżycie impulsu o energii 50 mJ z indukcyjności 5 mH gdy przerywają prąd Ic=4.5 A. Prąd bazy po przerwaniu załączenia jest oczywiście zerowy. Tranzystory o Uceo>100 V są przez chwilę poza katalogowym obszarem SOA. To jest poważny rzetelny test ale jednak energia impulsu  powinna być zmniejszana w funkcji indywidualnego napięcia Uceo co jest dość proste. Wystarczy do indukcyjności dać równolegle szeregowy dwójnik DZ+R+D aby przy dużym napięciu pochłonął część energii z dławika.
Impuls 62.5 mW  dla zwykłego  tranzystorów BD243-244 ( Uceo: bez litery lub z  literą A,B,C. Obudowa TO220, Ic=8 A, Pc=65 W, Uceo=45-100V, wspomniane napięcie 32 V  ) podany jest z indukcyjności 20 mH z prądem 2.5 A. Mimo iż impuls ma większą energie z punktu widzenia drugiego przebicia i SOA jest dużo słabszy niż dla wymienionych Darlingtonów tym bardziej że niższe jest jego napięcie przy Uceo !   

Tranzystory oferowane są obudowane lub jako struktury. W tym drugim wypadku producent musi przetestować gotowy produkt bowiem w czasie montażu struktury ulegają uszkodzenia lub są wadliwie zamocowane. Na tle ogromnej ilości typów tranzystorów ilość procesów i struktur jest niewielka.  
Jeden obudowany chip tranzystora  mocy  ma aż 32 handlowych tranzystorów mocy oznaczonych jako 2N, BD i  innymi oznaczeniami firmowymi. Kwalifikacja jest prosta.
1.Przy dużym prądzie Ic i małym napięciu Uce mierzone jest wzmocnienie prądowe i na podstawie tego ustalony jest prąd Ic typu. Pomiar przy małym prądzie określa ewentualnie grupę wzmocnienia ale jest to mało użyteczne   
2.Tranzystor przerywa prąd ale tak że przy swoim indywidualnym napięciu Uceo wydzielana moc maleje z tym napięciem adekwatnie do wykresu SOA. Mierzone jest napięcie Uceo i ewentualnie czas wejścia w drugie przebicie. Jest ono absolutnie nieszkodliwe bowiem prąd jest momentalnie przerwany gdy drugie przebicie się dopiero  rozpoczyna.
Te dwa pomiary – testy wystarczą do selekcji na typy.  
Ale są tranzystory które mają niewiele grup selekcyjnych szczególnie tam gdzie dla słabszych egzemplarzy nie ma sensownego  zastosowania.

W języku polskim jest tylko jeden artykuł z 1975 roku poświęcony przyrządowi do badania II przebicia ale praca magisterska na której artykuł jest oparty z jego szczegółami jest niedostępna i trudno powiedzieć czy przyrząd w ogóle działał.  Z publikacji wynika że małe było zarówno  Uceo jak i Ic w teście
 
Tester jest wielofunkcyjny.
Jednocześnie załączony jest na czas magazynowania energii górny klucz testera podający napięcie do dławika L i testowy DUT do dławika i do GND. Prąd bazy DUT ograniczony jest układem antynasyceniowym aby czas wyjścia tranzystora z nasycenie nie psuł dokładności pomiaru. Gdy tranzystor przy maksymalnym prądzie bazy z układu wychodzi  z quasi nasycenia przed osiągnięciem zadanego prądu jest to rejestrowane w przerzutniku do dyskwalifikacji. Po wyłączeniu ( dla DUT Ib=0)   obu kluczy mierzony jest czas do zaniku prądu w indukcyjności. Czas ten jest odwrotnie proporcjonalny do wartości średniej z przebiegu Uceo przy przewodzeniu zanikającego prądu kolektora. Można też łatwo zmierzyć napięcie quasi szczytowe Uceo. Gdy tranzystor wejdzie w II przebicie ten czas mocno wzrasta jako że prąd dławika zanika wtedy bardzo powoli. Ale tranzystory przy rozsądnej energii nie ulegają jednak uszkodzeniu. Można by jednak po zdetekowaniu inicjacji II przebicia prąd szybciej redukować co wymaga rozbudowy układu. Można by też mierzyć faktyczną absorbowaną lawinowo energie do czasu wejścia w II przebicie.
W przypadku gdy DUT jest tranzystorem Mosfet wymagany przez DUT prąd może stworzyć problem realizacyjny  dla górnego klucza testera. Aby nie komplikować zasilacza potrzebny jest wtedy driver do Mosfeta klucza testera typu N taki jak do górnych kluczy w mostku H lub trójfazowym.

Słowo „przebicie” kojarzy się z uszkodzeniem. Jednak sama inicjacja II przebicia nie jest niszcząca a destruktywny jest dopiero ciąg dalszy procesu. W  latach sześćdziesiątych zaproponowano nawet  użycie II przebicia w tranzystorze komórki pamięci.
Do celów pokazowo - edukacyjnych stworzono bardzo prosty, pomysłowy przerzutnik monostabilny elektrotermiczny (?) z DUT  który odmierza czas  do wejścia tranzystora w II przebicie i odcina prąd-moc dla niego . Przy rozsądnej częstotliwości wyzwalania (dla średniej mocy) tranzystorowi nic się nie dzieje nawet po długim czasie „tortur”. Oscyloskopem można ocenić że tranzystor ma szerszy obszar SOA niż gwarantuje to producent.   
 
Prąd wyzwalania bramką
Najprostszy model tyrystora składa się z dwóch połączonych tranzystorów NPN i PNP. Przy małych prądach ich wzmocnienie prądowe rośnie i gdy Alfa1+Alfa2 >1 tyrystor może się wyzwolić. Zwykły tyrystor ma tylko bramkę katodową.
Model ten jednak wielu zjawisk nie tłumaczy. Zjawiska te tłumaczy model z dwóch opisanych układów NPN+PNP gdzie mniejszy powierzchnią pierwszy ma wyprowadzoną bramkę a dolna i górna bramka drugiego są połączone rezystorami z pierwszym.
Zjawisko Early jest tez pomocne do objaśnienia zachowania tyrystorów
Każdy element półprzewodnikowy mający odcinek charakterystyki o ujemnej oporności jak generacyjne diody mikrofalowe, diak i tranzystor jednozłączowy mają oczywiście niejednoznaczną charakterystykę i mogą być wykorzystane jako element pamięciowy.
A.Większość standardowych  tyrystorów SCR ma monolityczny rezystor przywierający bramkę
B.Asymetryczne tyrystory szybkie ASCR mają dodatkowo monolitycznie przywartą górną bramkę anodową
C.Asymetryczne tyrystory GTO ( mniejszością są symetryczne tyrystory GTO wychodzące z użytku) mają przywartą tylko górną bramkę anodową
Każdy z tych trzech rodzajów tyrystorów ma inne zachowanie przy włączaniu
Nie przekraczając anodowego prądu zatrzaśnięcia (Latch) z tyrystorem A możemy znaleźć dla prądu bramki mniejszego od wyzwalającego dwa prądy anody  przed przekroczeniem prądu bramki  Igt i po przekroczeniu. To przekroczenie jest przez tyrystor wewnętrznie zapamiętane ! Przy narastaniu prądu bramki od zera prądowi Igt towarzyszy w tyrystorze na prąd 40 A prąd anodowy kilku miliamperów ! Ten punkt jest tylko jeden. 
Na schemacie pokazano układ do ciągłego pomiaru prądu Igt tyrystora z grupy A. Anoda tyrystora DUT  do automatycznego pomiaru Igt  jest zasilana poprzez znaczny opornik lub ze źródła prądowego. Natomiast do ręcznego badania podwójnej charakterystyki znacznym regulowanym prądem ale mniejszym od prądu zatrzaśnięcia Itl. W każdym razie prąd dla pomiaru automatycznego zawsze musi być znacznie mniejszy od prądu zatrzaśnięcia się tyrystora i dla wspomnianego tyrystora 40 A ma wynosić parę mA. Napięcie z anody DUT podano do bazy wtórnika emiterowego na tranzystorze NPN który napięciem z emitera poprzez rezystor do bramki podaje prąd do bramki. Ze współczesnym tranzystorem wtórnika o znacznej częstotliwości granicznej Ft ujemna zewnętrzna pętla sprzężenia zwrotnego jest silniejsza niż pętla wewnętrznego dodatniego sprzężenia zwrotnego w tyrystorze z tym małym prądem anody ! Zrozumienie tego nie jest łatwe i praktyczne posłużenie się układem ułatwia przyswojenie skomplikowanej sprawy.
Prąd Igt jest tu mierzony ciągle jakimkolwiek miernikiem analogowym czy cyfrowym lub przez ADC. Prąd jest „bezszumny” na ekranie oscyloskopu i mierzony DVM. Przekonujemy się że prąd Igt szybko spada z temperaturą tyrystora. Można go ogrzewać zewnętrzne lub sam ( jego nagrzewanie to inny temat ) może wydzielać moc w strukturze. Powiększając rezystor podający z wtórnika prąd bramki i jednocześnie podwyższając napięcie zasilania przekonujemy się ze Igt spada ze wzrostem napięcia anodowego ( zjawisko Early ) ale niewiele. 
Dla szybkich  tyrystorów ASCR z grupy B wymuszony do automatycznego pomiaru Igt anodowym rezystorem lub źródłem prądowym prąd anody zależy od wartości przywierającego anodę monolitycznego rezystora wynosi dla tyrystora H-Out  około 30 mA i więcej dla mocniejszych tyrystorów.   
Rezystor przywierający anodę tyrystora asymetrycznego GTO z grupy C jest bardzo mały i do pomiaru potrzebny jest prąd anodowy aż 3-10 % Itav co widać z wykresów  dla przykładowego   tyrystora A-GTO na prąd 20 A i większych GTO.
 
Nieciągle prąd wyzwalania  bramką tyrystora  można mierzyć układami pracującymi sekwencyjnie tak jak prąd zatrzaśnięcia i prąd podtrzymania
Prąd wyzwalania Igt jest silnie zależny od temperatury tyrystora  i z tego powodu dokładny jego pomiar acz możliwy nie ma żadnego sensu. Wynik pomiaru Igt można skompensować od temperatury zarówno analogowo jak i programowo.

Prąd zatrzaśnięcia
Wtórnik emiterowy ( B połączona z A tyrystora a E z G) z tranzystorem NPN podaje bramce prąd a napięcie na anodzie tyrystora wynosi Ugk+Ube. Tyrystorowi podany jest narastający prąd anodowy a gdy prąd bramki ( w przybliżeniu jako że wzmocnieni prądowe tranzystora jest duże ) czyli prąd kolektora tranzystora spadnie do „zera” zatrzymane jest ładowanie  kondensatora integratora zadającego prąd . Napięcie na kondensatorze można automatycznie zmierzyć etatowym przetwornikiem ADC lub zmierzyć przy pomocy CTC i komparatora czas rozładowania stabilnym prądem. Można je też podać od razu w prostej maszynie do komparatora kwalifikującego.

Prąd podtrzymania
Po wyzwoleniu tyrystora DUT rozładowuje on kondensator C rezystorem R. W momencie gdy skutkiem rozładowania kondensatora prąd anodowy spadnie poniżej prądu podtrzymania tyrystor się wyłączy a napięcie na kondensatorze się zatrzyma. Z uwagi na dyspersję ( prąd podtrzymania jest bowiem mały przy prądzie nominalnym i ta dyspersja jest rzędu 10 mV )  napięcia przewodzenie tyrystora im większe będzie napięcie na kondensatorze i tym dokładniejszy statyczny pomiar ale przy większym napięciu dochodzi też dynamika tyrystora. Stała czasowa RC nie może być za mała przy czasie wyłączania tyrystora Tq. W praktyce wartości są zupełnie niekrytyczne. 
Napięcie na kondensatorze można automatycznie zmierzyć etatowym przetwornikiem ADC lub zmierzyć przy pomocy CTC i komparatora czas rozładowania stabilnym prądem. Można je też podać od razu w prostej maszynie do komparatora kwalifikującego.
 
Napięcie wsteczne i blokowania
Prąd upływu diod, tranzystorów i  tyrystorów bardzo szybko rośnie z temperaturą. Zarazem napięcie przebicia lawinowego rośnie z temperaturą. W efekcie z rosnącą temperaturą początkowo bardzo ostra charakterystyka I(U) staje się coraz gładsza. Zatem mierzone napięcie przebicia w niskiej temperaturze ( czyli temperaturze 25C otoczenia ) przebicia niewiele zależy od prądu pomiaru i jest jednoznaczne  natomiast w wysokiej temperaturze zależy od prądu pomiaru i jest coraz bardziej rozmyte. Zatem bardziej jednoznaczny jest pomiar napięcia przebicia w „niskiej” (czyli temperaturze otoczenia bez nagrzewania ) temperaturze.
Dla bezpieczeństwa ludzi stabilizowane wysokie napięcie do pomiaru pochodzi z małej przetwornicy. Podane jest ono do DUT przez rezystor i mierzony jest płynący przez DUT  prąd z czego wynika ( przy zimnym DUT ) napięcie przebicia do przydziału do grupy napięciowej. Po odpowiednim obniżeniu napięcia przetwornicy mierzy się prąd upływu DUT.
W przypadku tranzystorów wysokonapięciowych napięcie Uceo  powinno być rzetelnie oznaczane  w czasie testu SOA impulsem dużej mocy. 

Stromość du/dt
 Na przykładowych [4] wykresach pokazany jest  wymagany prąd i ładunek bramki dla pseudo szybkiego ( Tq=20 usec ) tyrystora 8 A / 800 V. Słowo szybkość jest kontekstowe. Mały 16A  tyrystor sieciowy w obudowie TO220 o napięciu poniżej 800 V ma Tq=30 us ale takie Tq ma też duży „szybki” tyrystor na napięcie 1400 V.
Dla temperatur dodatnich najmniejszy wyzwalający ładunek bramki zaczyna powoli rosnąc przy czasie impulsu poniżej 0.15 usec ale dla mocno ujemnych temperatur nigdy nie rośnie !
Dla tyrystorów wysokonapięciowych ten czas wynosi około 0.5-1 usec a nawet więcej ale minimum jest szerokie i niekrytyczne.

Przy szybkim narastaniu napięcia blokowania przez środkową warstwę tyrystora ( w dwu tranzystorowym analogu tyrystora są to Cbc jednocześnie tranzystora NPN i PNP) płynie prąd pojemnościowy dostarczając rozłożonym fizycznym bramkom ( katodowej i anodowej ) ładunku. Nieliniowość tej pojemności w funkcji napięcia jest taka sama jak dla pojemności Cbc tranzystora wysokonapięciowego. Z wymaganego do załączenia ładunku i dynamicznie dostarczonego efektem du/dt ładunku wynika dynamiczna odporność tyrystora na szkodliwe dynamiczne załączenie.
Im szybciej narasta napięcie anodowe blokowania tym mniejszy jest pułap do którego musi ono narosnąć do niechcianego, szkodliwego  wyzwolenia tyrystora.

Automatyzacja pomiaru krytycznej szybkości narastania napięcia anodowego du/dt jest trudna. Normy przewidują dwie procedury.
-W starej metodzie eksponencjalnej tyrystorowi podane jest narastające do 2/3 Vdrm napięcie z trójnika RC. Normatywna stromość dotyczy tylko początka napięcia ! Metoda ta ma korzenie historyczne. Równolegle do tyrystora dołączony jest kondensator o pojemności najmniej 5 razy większej niż pojemność tyrystora i poprzez regulowany  rezystor mocy podane jest odpowiednie napięcie z zasilacza kontaktronem ze stykiem zwilżonym rtęcią. Badacz ręcznie  zmniejsza wartość rezystora mocy i podaje skoki napięcia tyrystorowi aż ten w końcu się załączy
-W nowej metodzie liniowej tyrystorowi podane jest uformowane elektronicznie napięcie szybko rosnące liniowo do poziomu  2/3 Vdrm lub Vdrm aż tyrystor się załączy.
Oczywiście stromość liniowa jest znacznie mniejsza niż eksponencjalna.

W opracowanych metodach stromość podanego do DUT napięcia narastającego quasi liniowego wybierana jest zgrubnie w przedziale  100 V/usec - 5 KV/usec
Dzięki użyciu Power Mosfeta na napięcie Uds = 1000 V realizacja obu metod jest bardzo prosta !  

Używanie znacznych napięć niesie ze sobą ryzyko śmiertelnego porażenia. Maksymalnego napięcia <1000Vdc dostarcza w pierwszym systemie przetworniczka  małej mocy. „Porażenie” oznacza tu tylko  bardzo nieprzyjemny impuls rozładowania małego kondensatora ciałem. Dodatkowo przetworniczka dla bezpieczeństwa nie pracuje ciągle.
HV podane jest do anody tyrystora, którego katoda połączona jest z drenem Mosfeta. Jest on w kolejnych sekwencjach  bramką tak sterowany że napięcie na drenie spada quasi - liniowo coraz szybciej. Dla ekonomii czasu i dokładności zależy wybrać sensowną początkową stromość du/dt. Po każdym pełnym narośnięciu napięcia na tyrystorze DUT Mosfet jest bramką zablokowany a DUT jest  poprzez transformatorek bramkowy ( musi być odpowiedni aby nie wprowadził pojemnością błędu pomiaru !) „wyzwolony” i jego napięcie Uak spada do zera. Po chwili na zaniknięcie w tyrystorze ładunku podaje mu się znów rosnące liniowo napięcie. Rosnące coraz szybciej.  Gdy w końcu  wyzwolony stromością  napięcia du/dt tyrystor zacznie przewodzić prąd zostanie ograniczony bowiem w źródle Mosfeta jest pojemność ( napięcie na niej jest proporcjonalne do ładunku w danym kroku, pojemność ta ma być proporcjonalna do pojemności tyrystora DUT czyli jego rozmiaru  ) a napięcie bramki jest ograniczone przez diodę Zenera. Sekwencja pomiaru jest przerwana z zapamiętaną ostatnią stromością w napięciu na  kondensatorze integratora.
W przypadku testu (a nie pomiaru ) jest tylko jedno narastanie napięcia i tyrystor nie może się załączyć.
Mankamentem jest maksymalne napięcie Uds Mosfeta 1000 V ale produkowane są już typy na napięcie 1500 V.
Działanie systemu sprawdzonego na wielu tyrystorach jest jak najbardziej poprawne. Poza żałosnymi tyrystorami BTP na licencji ZSRR wszystkie tyrystory mają zapas deklarowanego parametru du/dt ale szybko spada on z temperaturą tyrystora.
Trudno powiedzieć czy tyrystory wysokonapięciowe muszą być w teście na du/dt poddane ich maksymalnemu napięciu. Przypadkowy tyrystor mocy na nominalne napięcie 2400 V i wysokiej grupie du/dt ( według definicji eksponencjalnej ) w opisanym teście przy napięciu 1000 V załącza się dynamicznie ale przy większej stromości tak jak na omówionym już wykresie.
 
W drugim rozwiązaniu tranzystor Mosfet ( równolegle do niego przyłączony jest tyrystor DUT ) jako w pełni załączony klucz powoduje narastanie prądu w dławiku podobnie jak w konwerterze Flyback. 
O ile w SMPS tranzystor wyłączamy szybko to tu sterujemy go bramką liniowo tak aby napięcie narastało  liniowo do określonej wartości z zadaną szybkością du/dt. W kolejnych sekwencjach szybkość jest coraz większa aż w końcu Ty się załączy. Tranzystor podający od strony B+ zasilanie do dławika zostanie wtedy wyłączony i prąd załączonego tyrystora  jest  przerwany. Maksymalne napięcie na drenie Mosfeta i DUT jest aktywnie ograniczone do nastawionego poziomu lub prościej Mosfet ograniczy jest swoim napięciem lawinowym Avalanche. 
Metoda nie jest elastyczna i trzeba wybrać odpowiednią indukcyjność dławika i narastających w sekwencjach prądów. Wielkość narośniętego prądu w dławiku kiedy Mosfet przechodzi do pracy liniowej trzeba odpowiednio wybrać aby przy maksymalnym zadanym napięciu Mosfet nie musiał absorbować za dużo energii z dławika bo mimo bardzo szerokiego obszaru SOA nie jest on przecież nieskończony ani nawet wielki.
Wynik pomiaru du/dt tą metoda jest identyczny jak poprzednią. Impuls wysokiego napięcia jest  nieprzyjemny ale całkowicie bezpieczny. 

W odmianie dla wysokonapięciowych DUT zamiast dławika jest tu tylko dla DUT autotransformator. Użyto tu optymalnego impulsowo transformatora na rdzeniu ferrytowym zoptymalizowanego do tego zadania. O ile napięcie na drenie Mosfeta nadal ładnie narasta prawie liniowo to skutkiem indukcyjności rozproszenia transformatora i jego pojemności w napięciu na DUT widać już efekty rezonansu transformatora ale z punktu widzenia fizyki tyrystora jest to praktycznie bez znaczenia. Wynik pomiary parametru du/dt tyrystora na napięcie 2400 V ze skokiem 2000 V jest jak najbardziej poprawny.

Prąd bramki wyzwalający tyrystor szybko spada z temperaturą.  Krytyczna stromość narastania napięcia du/dt wyzwalająca tyrystor także szybko spada z temperaturą.  Prąd upływu tyrystora szybko rośnie z temperaturą. ( Rośnie też czas wyłączenia Tq ) Zatem pomiary powinny być prowadzone w circa stabilizowanej temperaturze lub progi selekcyjne analogowe lub programowe powinny kompensująco zależeć od temperatury.
 
Napięcie lawinowe diod mocy     
Motorola i Philips a za nimi inni producenci zaczęli deklarować diodom zdolność absorpcji impulsu energii w modzi Avalanche czyli lawinowym czyli dioda ma się zachować jak dioda Zenera bezpiecznie absorbując energie całą powierzchnią bez zabójczej lokalizacji.
Motorola podaje szkic idei układu testowego. Diody MUR180E i MUR1100E ( diody bez litery E jak Energy w oznaczeniu nie mają zdolności absorpcji energii lub nie są testowane pod tym kątem ale są trochę tańsze i będą wycofane z oferty ) mają absorbować energie 10 mJ z dławika 40 mH czemu odpowiada jego prąd 0.707 A. Prąd dławika 1 A to energia 20 mJ. Prąd musi być jednak trochę większy z uwagi na pojemności, czas wyłączania klucza i stratność dławika z rdzeniem.
Dioda MUR1100E przez 35 usec stabilizuje w teście napięcie jak dioda Zenera na poziomie ca 1400 V.
Impuls można podać tylko co jakiś czas i potrzebny jest do obserwacji oscyloskop z lampą pamięciową lub nieosiągalny oscyloskop cyfrowy. Niemniej zwykły oscyloskop jest połowicznie użyteczny w zaciemnionym pomieszczeniu.
Im większy jest prąd szczytowy impulsu tym mniej energii dioda jest w stanie zaabsorbować. 
Szkic  Motoroli rozbudowano i zaimplementowano. Napięcie z drenu klucza testera Mosfeta ( załączany na czas narośnięcia prądu dławika )  poprzez szereg połączonych diod UltraFast podano do diody DUT. Chodzi o minimalizacje pojemności wynikowej diody i jednokierunkowy przepływ energii. Równolegle do diody  DUT jest skompensowany dzielnik rezystorowo pojemnościowy z bardzo dużym rezystorem HV,  dostarczający sygnał do oscyloskopu.  Podnosząc prąd przy którym jest wyłączany klucz Mosfet dioda DUT absorbuje impulsem coraz więcej energii z dławika. Napięcie na pojemności dzielnika jest rozładowane bardzo dużym rezystorem ale gdy impuls energii  jest za silny zaczyna go też rozładować swoim upływem gwałtownie rozgrzana  dioda DUT ! Jak jeszcze zwiększymy energie impulsu dioda ulega w końcu zniszczeniu. Ale trochę słabszy impuls jest całkowicie dla diody bezpieczny i nie degraduje jej.
Zatem stopniowo podnosząc energie impulsu można określić jej zdolność absorbcji energii lub podając określony, katalogowy impuls sprawdzić że każda jedna dioda ( spełniająca wymagania ) go bezpiecznie toleruje. W teście produkcyjnym odpada użycie analogowego oscyloskopu z operatorem. Wystarczy napięcie z wyjścia pojemnościowego dzielnika podać do analogowego układu z komparatorem z najprostszym układem czasowym i logicznym. Gdy napięcie po impulsie energii spadnie za szybko dioda nie spełnia testu i odpada.
Prostym aktywnym detektorem szczytowym rejestrujemy jej napięcie przebicia co pozwala na dalszą selekcje.
 Niestety dostępny jest tylko Mosfet na napięcie 1000 V. Tranzystory do stopnia H-Out mają napięcie Uceo=700 V ale robocze napięcie „powrotu” sięga 1200 V. Najbezpieczniej tranzystor taki można sterować od strony emitera i tranzystor jest właśnie sterowany niskonapięciowym Mosfetem od strony emitera. Pojemność dzielnika ogranicza szybkość narastania napięcia na ( japońskim ) tranzystorze H-Out ( jest dużo lepszy niż europejskie BUxxx )  i jest on praktycznie wyłączony przed przekroczeniem napięcia Uceo.  Napięcie 1500 V jest tolerowane ale musi być poniżej tego poziomu ograniczone dodatkowym układem  bo przy takim napięciu daleko poza obszarem SOA tranzystor może absorbować znikomą energie.
Gdy takie napięcie jest za małe można dać w emiterze wysokonapięciowego klucz tranzystora (typu H-Out)  Mosfeta na 1000 V i napięcia pomysłowym układem podzielić na oba tranzystory. 
Można też zamiast dławika zastosować „autotransformator” ( łączenie uzwojeń przez diody jak w FBT od TVC ) jak do pomiaru krytycznej stromości du/dt tyrystora wysokonapięciowego.     

Automatyczny test wieloparametrowy tyrystora do falownika
 Tyrystory z powodu swoich nieusuwalnych wad będą nadal stosowane tylko w zastosowaniach dużej i wielkiej mocy bowiem w pozostałych zastosowaniach są wypierana przez inne, lepsze rozwiązania z tranzystorami mocy.
Wielka szkoda że licencja Westinghouse na tyrystory mocy dla Laminy praktycznie się zmarnowała. Drogi zakup był niekompletny i brakowało odpowiedniego systemu pomiarowego dla szybkich tyrystorów.
 Układy pomiarowe dla tyrystorów w normach i publikacjach producentów są strasznie prymitywne, niedokładne  i wymagają pracy człowieka.

 Parametry dynamiczne tyrystora szybko psują się z temperaturą. Gdy temperatura szybkiego  tyrystora będzie za wysoka dochodzi w czasie pracy invertera do niepowodzenia wymuszonej komutacji i zwarcia zasilania.
Tyrystor w układzie testowym ma pracować w warunkach podobnych lub identycznych albo cięższych do realnego zastosowania. Celowo nie ma chłodzenia.

W układzie testowym równolegle do DUT Ty – tyrystora jest antyrównoległa szybka D-dioda mocy. Szeregowy dwójnik, obwód komutacyjny LC jest równoległy do Ty. Po wyzwoleniu bramką Ty odbywa się pełen cykl przeładowania kondensatora obwodu LC z początkowym i końcowym dodatnim napięciem. Po przewodzeniu Ty i dalej D następuje dynamiczny ( potencjalnie krytyczny zakłóceniowo załączający Ty ) skok napięcia du/dt na tyrystorze. Po zadanej chwili czasu Ty jest znów silnie wyzwolony bramką. Dla tyrystora komutacyjnego w falowniku przerwa jest długa a dla tyrystora roboczego krótka. Napięcie zasilania podane jest przez dławik Dl z szeregową szybką diodą i żarówką. Szczytowe napięcie na kondensatorze ( Ty i D ) jest w pracy znacznie większe niż programowane / regulowane napięcie zasilania Ub. Tyrystor jest mocno obciążony i szybko się nagrzewa. Gdy rosnący z temperaturą czas wyłączenia  Tq i spadająca dynamiczna odporność du/dt tyrystora staną się za duże / małe  dojdzie do zwarcia zasilania.
W prostym rozwiązaniu małej-średniej  mocy pierwszą instancją ochrony jest normalnie prawie ciemna -„zimna” żarówka a drugą tyrystor w układzie regulacji fazowej napięcia Ub na kondensatorze elektrolitycznym zasilania i jednocześnie bezpiecznika elektronicznego.
W rozwiązaniu do tyrystorów wielkiej mocy można zastosować idee ochrony ( osobny ciekawy temat ) General Electric stosowaną w falownikach trójfazowych. Trójfazowy mostek tyrystorowy jest sterowany. Jej mankamentem jest dławik z rdzeniem żelaznym znacznego rozmiaru. 

Elementy obwodu komutacyjnego LC oraz dławik Dl i snubber RC są dobrane dla typu tyrystora. Zamiast biernego snubbera RC można dla małej  mocy zastosować pokazany aktywny snubber z wysokonapięciowym Mosfetem z odpowiednim  radiatorem i rezystorem odciążajacym, który może być programowalny lub regulowany małym potencjometrem. 
Układ testowy nie jest więc generalnie programowalny ale po zastosowaniu gniazd mocy wymiana dwójnika L i C jest łatwa i szybka dla innego tyrystora. Konstrukcja cewki L musi być odpowiednia mechanicznie aby ograniczyć pisk / ryk cewki
Amplitudy prądów i napięć są praktycznie proporcjonalne do regulowanego napięcia zasilania.
Napięcie zasilania Ub ( i dla tyrystora typu komutacyjnego czas przerwy ) możemy ustalić takie że tyrystor się rozgrzeje ale może dowolnie długo pracować lub takie że zrobi zwarcie ( zupełnie nieszkodliwe dla niego)  już po paru (<10) sekundach.

W systemie między elementami L i C cyrkuluje duża moc na tle niewielkiej mocy pobieranej z zasilacza. Pobierana moc pokrywa głównie straty w kluczach Ty i D, obwodzie LC i snubberze oraz żarówce.
Trójfazowy prąd sieciowy 25 A / 380 V jest teoretycznie wystarczający do zasilania urządzenia  testującego szybkie tyrystory 1400 A / 2500 V. 
Mechaniczna konstrukcja testera dla potężnych tyrystorów nie wydaje się prosta ( nie wykonano takowej ) a co gorsza literatura na ten temat milczy.
Rezystor snubbera RC rozprasza sporą moc. Alternatywą jest jego chłodzenie wodne.

Dla danego typu tyrystora miarą jego jakości w testerze ( Ub=const ) jest czas pracy aż do zwarcia zasilania. To zwarcie odbywa się przy temperaturze chipa Tj < 120 C i jest zupełnie nieszkodliwe.
Testowano tyrystory używane do systemu odchylania poziomego H-Out odbiorników TVC:  Radzieckie tyrystory KU221 A i B (odbudowa metalowa TO66 ), „krajowe” BTP128 i 129 (TO220) oraz Thomson BT113/700 i BT112/750 ( oba TO66).
„Plastikowa” obudowa TO220 ma znacznie mniejszą pojemność cieplną niż metalowa obudowa TO66. Stąd w pełni miarodajne jest bezpośrednie  porównanie typów  radzieckich i zachodnich. Typy radzieckie są znacznie gorsze. Krajowe – zachodnie ( struktura jest importowana )  tyrystory BTP są także dobre.

Jeszcze szybsze niż tyrystory ASCR  do systemu H-Out są użyte jako zwykłe tyrystory ( są drogie i jest to nieekonomiczne ), tyrystory wyłączalne bramka ( asymetryczne ) tyrystory GTO.
Czas wyłączania Tq dla asymetrycznego GTO typu BTS59 tylko trochę przekracza 1 usec ! Nie należy ich bezkrytycznie tym urządzeniem testować bowiem szybki tyrystor GTO się przegrzeje i uszkodzi.  

Standardowy, masowy, tani  tyrystor BT152-800 w obudowie TO220 ma typowy katalogowy czas wyłącznie Tq=35 usec w warunkach ( It=40A, -Vr>50V, dIt/dt=10 A/usec, dUt/dt=50 V/usec ) podanych przez producenta. W testerze czas Tq jest odrobinę dłuższy dlatego ze napięcie wsteczne to napięcie przewodzenia antyrównoległej diody a nie 50V. Ale z drugiej strony przez czas Tfr napięcie na diodzie rozpoczynającej przewodzenie jest znacznie większe niż w stanie ustalonym. Na  przykładzie tego tyrystora widać spory wpływ bocznikującej bramkę rezystancji Rgk podnoszącej odporność dynamiczną du/dt. Ale wpływ rezystancji Rgk czy nawet ujemnej polaryzacji bramki jest w tyrystorach generalnie bardzo różny.
Testowano też inne przypadkowe tyrystory. Niektóre przy nadmiernym napięciu blokowania uszkadzają się po czasie. Z tego względu część napięcia z kondensatora prostownika szczytowego napięcia na Ty-D podano poprzez potencjometr do układu regulacji wariantowej / selekcyjnej i napięcie zasilania Ub zostaje zmniejszone do zadanej wartości maksymalnej. 
Tyrystor BT152 przy zbyt wysokim napięciu anodowym bezpiecznie załączy się bez impulsu bramkowego ale według katalogu maksymalna dopuszczalna stromość prądu wynosi wtedy tylko 20 A/usec podczas gdy przy dobrym wyzwoleniu bramką wynosi aż 200 A/usec.
Bez obejrzenia mikroskopem uszkodzonej struktury tyrystora trudno jest ocenić jaki mechanizm prowadzi do jego uszkodzenia. Bez zdolności bezpiecznego samowyzwolenia się tyrystora nadmiernym napięciem blokowania trzeba przy szeregowym łączeniu wielu tyrystorów dać im do wyzwolenia diodę Zenera mocy ( plus inne elementy ) między anodę i bramkę.     

Dla miarodajności tyrystory są wyzwalane mocnym ( regulowanym do 2-5 A ) i szybkim impulsem bramkowym.
W pokazanym układzie alternatywnym, do bramki podany jest prąd narastający quasi liniowo  i rosnące napięcie na ładowanym kondensatorze zostaje  zatrzymane ( cały system pomiarowy jest samo objaśniający się ) po wyzwoleniu się tyrystora. Układ ten ciągle mierzy prąd wyzwolenia bramki. Oczywiście ten prąd szybko maleje wraz z nagrzewaniem się tyrystora.
Z takim słabiutkim wyzwalaniem czas do wywołania przez tyrystor zwarcia zasilania jest znacznie krótszy niż przy poprawnym wyzwoleniu. Jeden z tyrystorów zwiera już po kilkudziesięciu cyklach czyli prawie od razu! Można skonstruować układ gdzie tylko co któreś wyzwolenie byłoby słabe do celów pomiarowych.    

  Dławik komutacyjny L winien mieć optymalne geometrycznie proporcje. Może być nawinięty pseudo Litzą ( skręcone emaliowane druty nawojowe) folią miedzianą lub miedzianym płaskownikiem. Dławik nie powinien się przegrzewać wcześniej niż tyrystor DUT.
 Używane w energoelektronice kondensatory komutacyjne są trudno dostępne. Użyto wielu połączonych  kondensatorów stosowanych w tyrystorowym układzie odchylania H-Out w TVC oraz innych przypadkowych kondensatorów.
Kondensatory polipropylenowe używane do kompensacji mocy biernej mają odpowiednią małą stratność ale często mają wbudowane bezpieczniki i napięcie zmienne na nich musi maleć z częstotliwością aby płynący prąd skuteczny RMS nie był dla nich za duży.

Układ testowy może mieć wiele zastosowań Edukacyjnych, Badawczych i  Produkcyjnych.
 
Pomiar trr, Qrr i Tq
Najszybsze diody do techniki komputerowej o napięciu wstecznym zaledwie 30 V mają czas odzyskania  zdolności zaworowej  trr=0.7 ns. Czas trr nie jest liczbą ale funkcją zależną conajmniej  od natężenie przewodzonego prądu i szybkości narastania prądu wstecznego oraz zależy od temperatury. Masowo produkowane diody 1N914 i 1N4148 ( w świecie pod różnymi nazwami ) na napięcie do 100 V o I=100 mA  mają czas trr=4 ns. Najszybsze diody „mocy” Ultra Fast na napięcie do 200 V mają katalogowy czas trr=25 ns.
Czas trr diod szybko rośnie z ich napięciem wstecznym. Czas trr  wielkich diod energetycznych o bardzo dużych napięciach sięga 30 usec.
Diody Schottky mają zerowy czas trr ale mają sporą pojemność. Ich mankamentem jest napięcie wsteczne mniejsze od 45 V i duży prąd upływu ale produkowane są typy na dość duże chwilowe prądy. Prąd upływu szybko rośnie z temperaturą i w układzie testera dioda Schottky musi być „zimna”.

W układach energoelektronicznych znacznie ważniejszy od czasu trr jest ładunek wsteczny Qrr ( przy konkretnej szybkości narastania prądu wstecznego di/dt ) bezpośrednio związany z dynamicznymi stratami mocy w aktywnych kluczach. 

W typowym układzie testowym  czas trr określany jest z odczytu obserwowanego oscyloskopem przebiegu prądu wstecznego przy wyłączaniu diody w układzie testowym a ładunek trzeba ocenić / oszacować  z oscylogramu. Schematy układów testowych dla oceny trr i Qrr podawane są przez producentów diod i tyrystorów. Są też opisane w Normach a w tym w PN. Pomiar jest powolny a obecność człowieka w systemie wprowadza koszmarną nieokreśloność i zawodność tych metod.
Te tradycyjne układy nie nadają się do szybkich zautomatyzowanych i dokładnych pomiarów.

W pokazanym systemie ładunek Qrr ładuje kondensator Cq. Jego pojemność musi być adekwatna do czasu Trr czyli też mierzonego ładunku Qrr diody. Z uwagi na upływ ( szczególnie dużej diody Schottky ) napięcie z kondensatora Cq  może dodatkowo gładko naładować poprzez szeregowy dwójnik RD kondensator pamięciowy Cqp.  Kondensator ten można  rozładować stałym prądem ( przejście przez zero detekuje komparator ) mierząc licznikiem czas lub napięcie z niego podać do multiplexera centralnego przetwornika ADC.
Kondensator Ct przez czas trr jest ładowany stałym prądem w układzie analogowego ekspandera czasu. Napięcie z kondensatora Ct można podać do przetwornika ADC lub kondensator rozładować stałym prądem ( przejście przez zero detekuje komparator ) mierząc licznikiem uC czas.

Kolejny pomysłowy system służy do pomiaru czasu odzyskania zdolności blokowania przez tyrystor  Tq. Stromość narastania napięcia blokowania du/dt może być programowana układem z power Mosfetem. Czas Tq musi być wstępnie oszacowany od dołu lub ewentualnie można rozbudować układ o kontrolującą  State Machine i program z algorytmem. Wzięto idee z materiałów Motoroli. Sama idea aby pomiar Tq był jednokrotny zamiast całej czasochłonnej serii prób jest genialna. 

Klucz mocy S w układach pomiarowych musi być zawsze adekwatny do szybkości diody i częstotliwości rezonansowej obwodu LC lub przy stosowaniu tylko L napięcia zasilania. Niezbyt szybkim kluczem ale dużej mocy jest tyrystor a szybszym kluczem mniejszej mocy tranzystor Power Mosfet. Mosfety mają duża impulsową przeciążalność prądową.


Literatura od autora.
1.Układ ( schematy ) automatycznego pomiaru m.in. Uceo i drugiego przebicia tranzystora bipolarnego dużej mocy wysokiego napięcia oraz Uds(br) i energii avalanche  tranzystora power Mosfet
2.Prosty układ demonstracyjny II przebicia tranzystorów bipolarnych
3.Układy ( schematy ) do automatycznych pomiarów parametrów diod a w tym testu energii przebicia lawinowego Avalanche
4.Układy ( schematy ) do automatycznych pomiarów parametrów tyrystorów
5.Automatyczny test wieloparametrowy tyrystora mocy do falownika
6.Ekspander czasu ( schemat )