sobota, 26 czerwca 2021

Laboratorium zaawansowanej elektroniki i automatyki 27

 Laboratorium zaawansowanej elektroniki i automatyki 27

 Automatyka zajmuje się kontrolowaniem różnych procesów. Gdy rozumiemy naturę zachodzących procesów możemy stworzyć model i zastosować adekwatny do niego kontroler. Gdy model jest wielowymiarowy i nieliniowy jest celowo upraszczany aby był użyteczny. Gdy nie rozumiemy istoty procesu można na podstawie historii zachowania procesu przewidywać przyszłe zachowanie metodami AI. W tym kontekście Sztuczna Inteligencja jest przejawem bezradności w zrozumieniu procesu.

 Rozwijając wątek automatycznych stabilizatorów koniunktury działających w gospodarce i różnych automatyzmów w gospodarce rozważmy sprawę minimalnego wynagrodzenia.
Ustawowe minimalne wynagrodzenie, jeśli jest stosowane bo nie wszędzie jest stosowane, obejmuje w krajach świata 0.9-16% zatrudnionych. Przy czym większe wartości dotyczą krajów biedniejszych. Załóżmy że ustawodawcy w świecie są racjonalni - wykorzystamy dane ze świata. Dla tak szerokiego zakresu bardziej miarodajna jest średnia geometryczna wynosząca 3.8% zwłaszcza skorygowana w stronę średniej arytmetycznej wynoszącej 8.45%. Niech będzie to dość dowolnie 4.5% bowiem Polska jeszcze nie jest bogata. Przy znanym rozkładzie płac wynika z  tego że minimalna płaca powinna w Polsce wynosić ca 43% średniej płacy.
Minimalne wynagrodzenie ma wiele zalet:
-Dla niemodernizujących się firm z branż schyłkowych słabo płacących pracownikom jest informacją o nadciągającym bankructwie i konieczności modernizacji   
-Ogranicza ono wyzysk i eksploatacje w biedniejszych regionach / branżach gdzie firmy nadużywają swojej silniejszej wobec pracownika pozycji
-Zmniejsza ubóstwo i odrobinę zmniejsza wydatki socjalne państwa i wydatki na służby porządkowe i wymiar sprawiedliwości.
-Zmniejsza współczynnik rozwarstwienia dochodowego Ginnego co jest bardzo korzystne dla ogólnej stabilności całego systemu społeczno – gospodarczego.
-Zachęca pracowników do edukacji, aktywności i zwiększenia produktywności
Wbrew publikacjom skorumpowanych lobbystów nie stwierdzono negatywnego wpływu rozsądnej minimalnej płacy na poziom zatrudnienia ale prawdopodobnie jest on pozytywny.
W Wielkiej Brytanii płacę minimalną wprowadzoną już w 1909 wycofano w szczycie szału neoliberalizmu  w 1993 roku  po czym  przywrócono i rozszerzono (!) już w 1998  roku. W sondażu z 2004 roku wśród brytyjskich pracodawców 90% z nich odpowiedziało, że wzrost płac z tytułu płacy minimalnej jest dla nich bez znaczenia. Podobnie jest w innych krajach. Korelacja nie jest dowodem istnienia związku przyczynowo - skutkowego ale z reguły po podwyższeniu niskiej płacy minimalnej polepsza się koniunktura i powiększa zatrudnienie !
Instytucja minimalnej płacy w żadnym razie nie ma wypierać i zastępować rynku pracy. Ma ulepszyć mechanizmy zawodnego rynku. Gdy obejmuje ono do 3-4% zatrudnionych nie ma żadnego efektu negatywnego.
Zatem te pozoranckie polskie ministerstwa z licznymi synekurami są do likwidacji ! Ale pasożytnicze rządy straciłyby argument jak to podwyższając minimalną (!) płacę czynią dobrze społeczeństwu. Jak to umiłowani przywódcy chcą przychylić nieba poddanym. Tymczasem powinna ona obecnie wynosić 43% średniej płacy ale gdy Polska się wzbogaci może spaść o 1% i znów po czasie 1 %. Uchwalenie poprawki wymaga kilku minut pracy Sejmu ale zadanie można delegować ministrowi.

Na wykresie pokazano realne wynagrodzenia od 1980 roku w USA i Europie biedniejszej połowy populacji. Korupcyjny neoliberalizm zdemontował różne działające wcześniej  gospodarce amerykańskiej mechanizmy zapobiegające powstawaniu patologicznych nierówności. . Przyrost w Europie o 40% też nie jest zachwycający.

W para – państwie polskim panuje przeraźliwy bałagan służący do pasożytowania „równiejszym”. Tymczasem automatyczne mechanizmy mogą być bardzo proste, niezawodne, rozsądne i sprawiedliwe. 
Państwowa emerytura płacona od powoli podnoszonego wieku emerytalnego mogłaby wynosić 90% minimalnego wynagrodzenia pomnożone przez staż pracy / 30 lat, przy czym staż też byłby podnoszony tak jak wiek.  Kobietom za każde dziecko doliczamy do stażu 5 lat. Staż żołnierzom na wojnie mnożymy przez x5. Czyli ci którzy mają pełny staż pracy otrzymają owe 90% minimalnego wynagrodzenia a pozostali proporcjonalnie mniej. W stabilnym państwie całkiem spore mogą być „prywatne” emerytury.
W PRL funkcjonowały w sferze publicznej siatki płac. Po ich porzuceniu zaczęły kwitnąć liczne patologiczne złodziejstwa.
Polski ustawodawca bez przerwy dłubie przy regulacjach i wprowadza je tam gdzie są zbędne ale nie reguluje tam gdzie to jest konieczne i trwa pasożytnicza grabież.  Nowelizacja, nowelizacja, nowelizacja i nowelizacja znosząca tamte nowelizacje. I tak trwa wytwarzanie półpłynnego cuchnącego „prawa” Okresy gdy Włochy i Belgia nie miały rządów były generalnie pomyślne gospodarczo ! Wszystko się normalnie toczyło i kraje były administrowane. Rządy nie stwarzały nowych ryzyk i niestabilności.
„Primo no nocere”  Po pierwsze nie szkodzić. „If it's wok do not fix it” – Nie naprawiaj tego co działa ! Jak najwięcej automatyzmów a jak najmniej dłubania !
W para – państwie elektrownię atomową będziemy mogli co najwyżej narysować sobie kredkami na chodniku.
W stwarzaniu chaosu i złodziejstwie polscy politykierzy nie mają sobie równych. Były dla przykładu 3 zbędne, drogie przelewy do ZUS-u !

Pandemia koronawirusa z okresem obniżonej produkcji dała koncernom czas na przyspieszenie automatyzacji i robotyzacji produkcji. Wzbudza to obawy pracowników między innymi branży motoryzacyjnej o przyszłość ich pracy.
Roboty razem z ludźmi produkują kolejne roboty. Dobrze we współpracy z ludźmi sprawują się małe roboty i manipulatory niezdolne nawet przy awarii nikogo mocno zranić czy zabić.

Przyszłość automatyzowanej wytwórczości należy do branż rozwijających się. Od lat szybko rozwija się światowy przemysł farmaceutyczny, którego sprzedaż w 2020 roku wyniosła 1270 mld dolarów. Sprzedaż koncernu Pfizer wyniosła 45.1 mln, drugiego światowego giganta GlaxoSmithKline 40.2 mld a Sanofi-Aventis 38.6 mld dolarów. Dalej są Roche, AstraZeneca, Johnson & Johnson, Novartis, Merck, Unilever.
W 2000 roku światowa sprzedaż leków ( i szczepionek ) wynosiła 390 mld a w 2010 roku  887 mld dolarów. Kilkuletnia sprzedaż szczepionek ( jako zdarzenie jednorazowe) przeciwko wirusowi Covid -19 ma dojść do około 160 mld dolarów.
Dygresja. W USA epidemie polio czyli makabrycznego paraliżu dziecięcego po 1955 roku opanowano dzięki opracowanej za pieniądze Narodowej Fundacji Paraliżu Dziecięcego, w pośpiechu szczepionce, której nie opatentowano. Nie opatentowano też bezpiecznego procesu jej produkcji. Większość producentów generyku ( ogólnie oznacza to lek naśladowczy ) doprowadziła do zakażenia szczepionki wirusem SV40, co odkryto w 1960 roku. Skażone szczepionki podano w USA 90% dzieci. Później okazało się że wirus SV40 powoduje nowotwory u wielu gatunków ssaków a w tym u ludzi. Tak więc leki i szczepionki mogą być wprost apokaliptycznie niebezpieczne.
Jednak szeroko zakrojona w USA akcja szczepień przeciwko Odrze ( odkrycie szczepionki  w 1962), Świńce (1967), Różyczce ( 1969 ) zmniejszyła ilość zachowań o ponad 95%. Dwudekadowe szczepienia przeciwko Odrze zapobiegły tam około 50 mln zachorować i wielkiej ilości następczych upośledzeń umysłowych.
Pamiętać jednak należy o tym jak wielki wpływ na zdrowie populacji miała rewolucja wodno – kanalizacyjna wspomożoną mydłem i proszkami oraz energia cieplna i elektryczną w różnych zastosowaniach. 
 
Sprzedaż leków powiększa proces starzenie się społeczeństwa w krajach bogatych i bardzo drogie leczenie niektórych chorób, zwłaszcza chorób rzadkich gdzie leki o wątpliwej skuteczności są bardzo drogie.
Coraz trudniejsze prace poszukiwawcze nad nowymi lekami wspomagane są przez automatyczne laboratoria. Coraz popularniejsze wśród  producentów leków jest kupowanie prototypów leków od mniejszych firm i outsourcing, czyli zlecanie na zewnątrz prac D&R w celi  redukcji kosztów.
W skomplikowanych, trudnych i kosztownych badaniach klinicznych nowych „leków” wykorzystane będzie „Big Data”  do izolacji bezpiecznych i skutecznych leków. Obecnie opracowanie nowego leku zabiera średnio 13 lat  i kosztuje 1.5 - 2.5 mld dolarów, zależnie od badaczy tematu.
Biotechnologia w poszukiwaniu leków na część chorób analizuje szlaki metaboliczne związane ze stanem chorobowym oraz patogenem i manipuluje procesami lekami chemicznymi i biologicznymi za pomocą biologii molekularnej lub biochemii . Wiele prac na wczesnym etapie odkrywania leków jest wykonywanych przez uniwersytety i instytucje badawcze. Substancje aktywną leku mogą produkować specjalnie zaprojektowane ( modyfikacja genetyczna ) bakterie lub grzyby.

Przeszkoleni lekarze równolegle niezależnie wykonujący w wielu krajach badania prototypów leków na ludziach - pacjentach na bieżąco wprowadzają dane ( także z analiz laboratoryjnych substancji od pacjentów ) do serwera ( sieciocentryczność ! ) koncernu. Dane przekazywane są też smartfonami ( lub podobnymi wyspecjalizowanymi urządzeniami ) pacjentów przyjmujących badany prototyp leku. Automatyczna analiza spływających danych jest trudna a nawet bardzo trudna. Gdy są dowody na „poważne”, niedopuszczalne działania uboczne „leku” badania są natychmiast przerywane. Słowo „poważne” trzeba rozumieć w kontekście tego co się leczy. Jeśli choroba jest śmiertelna dopuszcza się obiektywnie poważne działania uboczne aby ratować życie pacjenta ! Niezależnie od danych w postaci elektronicznej ( laboratoryjny analizator substancji od pacjenta pracuje w sieci ale wynik jest też drukowany na papierze umieszczonym w dokumentacji badania ), dokumenty są też drukowane i wypisywane ręczne. Istnieje obowiązek długiego ich przechowywania na wypadek przyszłych roszczeń pacjentów. Niszczenie danych elektronicznych jest przestępstwem podobnie jak niszczenie czy ukrywanie papierowych dokumentów. Bez oszustw i manipulacji szansa że pacjenci w klinicznym badaniach „leku” ucierpią jest znikoma. Udział w tych badaniach jest z reguły dla pacjentów bardzo korzystny. Przede wszystkim są bardzo starannie diagnozowani i wielokrotnie badani przez doświadczonych lekarzy co bez badania prototypu leku nie miało by miejsca. Ilość pacjentów biorących udział w badaniach „leku” zwiększa się stopniowo aby w razie działań niepożądanych narazić jak najmniej pacjentów.
Opracowywane leki które zawiodą w badaniu przedklinicznym i klinicznym często wiążą się z poniesionymi dużymi kosztami, nie generując żadnych przychodów bo nie są sprzedawane. Stąd rządy tolerują wysokie ceny nowych, opatentowanych  leków aby koncerny mogły pokryć koszty prac nad nieudanymi lekami a jest ich całkiem sporo. 
Ilość zatwierdzanych rocznie przez  FDA nowych cząsteczek do substancji aktywnej leku NME ( New Molecular Entities ) niestety powoli spada i wynalezienie nowego leku chemicznego  jest coraz trudniejsze. Leki biologiczne powstają na drodze modyfikacji genetycznej białek wytwarzanych przez żywe  komórki roślinne, zwierzęce, grzybów, bakterii i wirusów i grzybów. Są nadzieje na leczenie chorób w których leki chemiczne są nieskuteczne.

Jeśli porównamy złożoność i inteligencje  systemu do badań leków z systemami informatycznymi Polski do dochodzimy do smutnego wniosku że potencjał intelektualny dużego koncernu jest większy od potencjału państwa o nazwie Polska. Trudno nie zgodzić się z opinią dawnego rosyjskiego ambasadora w Warszawie, Ottona Magnusa von Stackelberga, że Polacy uprawiają kult działań pozornych i stąd te różne operetkowe „systemy informatyczne państwa”   
   
W USA dopiero od 1962 roku producent leku musi udowodnić FDA ( Food and Drug Administration – Administracja Żywności i Leków) że jest on skuteczny i bezpieczny. Zanotowano jednak na tym polu liczne przypadku nacisków, obchodzenia regulacji, oszust i korupcji.  Szacuje się że około 30-40% leków jest nieskutecznych lub znikomo skutecznych lub działania niepożądane „leku” przeważają działania pożądane.
Dokładniej sieciowym analizatorem substancji od pacjenta zajmiemy się później.

W USA prace nad automatyzacją wojny szeroko podjęto w latach pięćdziesiątych ale już pod koniec II Wojny skuteczne systemy przeciwlotnicze z radarami i komputerem analogowym zdalnie drogą radiową ustawiały i uruchamiały działa przeciwlotnicze !
Rozległy system militarny musi mieć komunikacje.
Związek Radziecki mimo podjętej przez USA na początku lat osiemdziesiątych blokady technologicznej w fizycznej technologi broni nie odstawał mocno od USA. W radzieckich porównaniach samolotów wielozadaniowych z pierwszej połowy lat osiemdziesiątych aż razi to że samolot USA jest  sieciocentryczny ( nazwa jest późniejsza ) a radziecki pilot jest sam jak palec i elektronika jego samolotu i rakiet jest dużo gorsza od przeciwnika. Czołg podstawowy MBT Abrams dzięki dobremu systemowi kierowania ogniem, zawsze mógł ustrzelić radziecki czołg z całkowicie bezpiecznej dla siebie odległości. Sowiecka armia domagała się elektroniki i automatyzacji od dawna ale to była pięta achillesowa gospodarki ZSRR. Gdy  w końcu dotarło do  kierownictwa ZSRR jak straszne błędy popełniono pozostało się uznać za pokonanego w Zimnej Wojnie  lub wszcząć wojnę nuklearna czego szczęśliwie nie uczynili. 
W Polsce temat automatyzacji wojny nie istnieje bowiem lumpen – elita uważa że będzie nas bronić USA. Stanisław Cat-Mackiewicz, ,,Polityka Becka”: „Sojusze zawarte pomiędzy państwami zbyt daleko od siebie położonymi i nierównie silnymi są często sojuszami egzotycznymi... Sojusze są jak małżeństwa; najbardziej jest naturalne, gdy pobierają się ludzie tej samej sfery, podobnych zamiłowań i niezbyt różnego wieku. Najnaturalniejsze sojusze są sojuszami państw sąsiadujących ze sobą. Jeśli zniszczenie jednego państwa pociąga za sobą zniszczenie drugiego państwa, to sojusz między nimi ma wszelkie cechy sojuszu naturalnego, a nie egzotycznego.’’
Tragedia porzuconego przez USA kurdyjskiego sojusznika nie nauczyła głupców niczego. USA nam pomogą tylko wtedy gdy będą miały w tym interes i nie będzie to dla nich niebezpieczne. W tej sprawie nie ma żadnego Automatyzmu !
  
Wielkie odkrycia i nowe technologie mają wielki wpływ na cywilizacje i życie każdego Ziemianina. Ale też duże znaczenia w rozwoju technologii ma wielka polityka. Świat się zmienia.
Zwykłe, proste procesy biznesowe płyną jak woda – po najmniejszej linii oporu. Są dość łatwe do automatyzacji. Ale firmy innowacyjne jednak muszą ”ruszyć głową”
W konkretnych rozwiązaniach technologicznych, ekonomicznych i podatkowych kraje kierują się własnym długofalowym  interesem. Prawdziwa walka o pozycje w  świecie nie dotyczy praw człowieka lub demokracji  ani innych bajek dla naiwnych. Stosowanie podwójnych standardów i prawo Kalego to ,,prawdziwa" zachodnia  demokracja. Chodzi o to  kto pracuje na kogo i kto zajmuje wyższe miejsce w światowym podziale pracy i hierarchii dziobania z jej rezultatów. W polityce zawsze chodzi o zdobycie i/ lub zachowanie kontroli. Te proste prawdy nie docierają do politykierów zajętych obrzucaniem się błotem.
Dla świata rozwiniętego problem ocieplenia klimatu jest dzisiaj deklaratywnie absolutnym priorytetem politycznym. Podejmowane są działania coraz bardziej radykalne. Nie wiadomo jednak na pewno, w jakim kierunku ten radykalizm pójdzie i jakie efekty przyniesie. Obecnie i w najbliższej przyszłości energia z wiatraków i paneli PV nie zastąpi energii  z paliw kopalnych i energii jądrowej.

Na wykresie pokazano bezpośrednią emisje gazów cieplarnianych w Polsce w mln ton ekwiwalentu CO2  i jej zmiany w podziale na sektory. Są takie sektory gdzie emisja rośnie.  Transport i przemysł to nasz ból głowy na najbliższą dekadę.

Elektryczny transport zmniejszy emisje tylko wtedy gdy energia będzie Zielona lub nuklearna. Przy energii elektrycznej generowanej z węgla w starych elektrowniach emisja może nawet wzrosnąć.

Wszelką energie i cenną wodę trzeba oszczędzać. Z muszli klozetowej pochodzi woda „czarna”
ale z umywalki woda „szara” ( także z prysznica, wanny, pralki a mniej zmywarki ) którą można użyć choćby w spłuczce WC.  Super tanie, tandetne  rozwiązanie pokazane na zdjęciu jest jednak przesadnie oszczędnościowe i mocno nieergonomiczne. W japońskiej (?) spłuczce inteligentnie „zintegrowanej” z wygodną umywalka zastosowano załączany okresowo przetwornik ultradźwiękowy mocy jak w myjce ultradźwiękowej aby nic się w niej trwale nie osadzało z wody z mycia w umywalce. Półmostek z Mosfetami zasilany z prostownika sieciowego zasilający  przetwornik ultradźwiękowy jest scalony. Dawniej w myjce ( przykładowy schemat urządzenia pracującego dokładnie na rezonansie przetwornika ultradźwiękowego  jest w „Fault Tolerant” ) stosowano wysokonapięciowe tranzystory bipolarne.

Obecnie chińskie firmy dostarczają 78% produkcji światowych paneli słonecznych PV. Tylko Chiny mają kompleksowy łańcuch produkcji do dostaw. Sami wytwarzają obecnie większość ( 80%) światowego polikrzemu, kluczowego materiału w panelach słonecznych i około 98 % dwóch innych kluczowych komponentów – płytek i sztabek krzemowych – które są używane w panelach na całym świecie, nawet tych produkowanych i montowanych w innych krajach.
Jeszcze w 2007 roku USA produkowały 50% światowego polikrzemu być spaść do 5% obecnie.
Chiny niedługo będą mieć milion publicznych stacji ładowania pojazdów elektrycznych EV. To dziesięć razy tyle co USA.
N.B. W USA doszło do conajmniej 30 wypadków samochodów Tesla z podejrzeniem aktywności autopilota. W kwietniu w okolicach Houston Tesla model S z 2019 roku zjechała niespodziewanie z drogi, uderzyła w drzewo, a następnie spłonęła grzebiąc dwóch pasażerów.
W USA 2021 roku  jest około 232 tysięcy miejsc pracy związanych z energią słoneczną a wedle dawnych obietnic wyborczych prezydenta Obamy miało ich być 5 milionów.  Jednak tylko 14 % z nich zajmuje się produkcją PV, podczas gdy zdecydowana większość, zamiast paneli fotowoltaicznych, wytwarza systemy montażowe, rzadziej falowniki i inne komponenty no i przede wszystkim instaluje chińskie PV. Amerykańskie panele są droższe i gorsze niż chińskie. Wielomiliardowe subsydia prezydenta Obamy, cła i zwolnienia podatkowe nic nie dały w USA. Doszło do wielkich defraudacji. W 2010 roku w USA istniało 75 głównych fabryk części fotowoltaicznych. Większość z nich została już trwale  zamknięta lub zlikwidowana. Chińskie giganty wygrały z konkurencją z USA nowszą i wydajniejszą technologią i efektem skali. Tak wygląda dezindustralizacja na przykładzie USA. Przemysł USA od dwóch dekad szybko się zwija. Na razie dolar jako najważniejszy produkt eksportowy USA jest pożądany i tolerowany przez świat. Dudniące trąby imperialnej propagandy mówiły że już, już Chiny upadną … a upada przemysł USA.
Chiny są globalnym hegemonem w produkcji urządzeń dla Zielonej Energetyki. Okres jej subsydiowania  na własnym rynku właśnie się kończy. Obniżono o 7-9% preferencyjne taryfy na energię odnawialną. Wstrzymano rządowe finansowanie nowych projektów. Decyzje te podjęto już w 2018 roku ale odkładano wprowadzenie ich w życie aż do zgonu światowej konkurencji. Produkcja urządzeń OZE była dotowana tanimi kredytami ale już nie jest. Teraz  cały świat kupuje ich produkty i płaci za to. Chiny koniunkturę i niszę wykorzystały więc doskonale. Subsydiowanie schyłkowych dziedzin produkcji (polskie górnictwo !) prawie zawsze prowadzi do marnotrawstwa, defraudacji i obniżenia tempa wzrostu gospodarczego.
Pomagać należy nowym, dobrze rokującym działom gospodarki. W dziedzinie zielonej energetyki technologie do Chin sprowadziły zachodnie firmy a Chińczycy ją przejęli i już sami dalej ją rozwijają. Wszystkie te przyjęcia firm i przejęcia technologii w fazie niemowlęcej wspomagał rząd. Po to właśnie są rządy !  To przykład udanego sterowania procesem  zastosowanego przez rząd !
Czyli rząd widział jak działa kontrolowany proces i gdzie są jego wejścia !
Polska sprzedaje Chinom surową miedź ( i srebro do PV ) a kupuje między innymi panele PV !
Grupa najbogatszych państw zachodu G7 wytwarzała w 1975 roku  70% światowej produkcji ale obecnie już tylko 30%. G-7 nie jest już ani bogata, ani wpływowa, ani demokratyczna. Wreszcie miliardy ludzi emancypują się ze spuścizny kolonializmu i imperializmu.
Chiny sprzedają Ameryce komputery za 68 miliardów dolarów rocznie. Ameryka sprzedaje  Chińczykom m.in. soję i surowce. W Chinach produkują a w Europie i USA drukują pieniądze !
Po raz pierwszy od dłuższego czasu inflacja CPI w Stanach Zjednoczonych osiągnęła w maju 2021 r/r poziom 5%. To dużo więcej, niż oczekiwała większość ekonomistów. Odczyt inflacji bazowej w USA jest najwyższy od 29 lat ! 
"W telekomunikacji w pierwszej dziesiątce uczelni siedem to uczelnie chińskie.  W tym pierwszych pięć." Zachód ma najlepsze uczelnie zajmujące się Gender Studies. W Polsce mamy silną Biblistykę, Teologię i Janpawlizm. Więc nie ma powodów do wstydu.
Zmiany światowej hegemoni były bardzo niebezpieczne dla światowego pokoju. USA bez możliwości eksportu drukowanego dolara czeka bieda a więc mogą rozważać wszczęcie wojny.
USA nie chcą  zrozumieć że Niemcy - UE nie będzie samobójczo walczyć z Rosją gdzie „Volkswagen” ma dostęp do surowców, taniej siły roboczej i rynku. Nie będą też walczyć z Chinami gdzie jest 1.4 mld klientów chętnych na „Volkswageny” i najnowsze fabryki tego koncernu.

Obserwując Polską politykę można odnieść wrażenie że umyślnie demontowane są pozytywne automatyzmy i Polskę zamieszkują idioci. W ogłaszaniu programów politycy i rządy są  dobrzy. Objawiono kolejny pomysł pisany na kolanie w nocy. Premier Morawiecki to człowiek karabin maszynowy wypluwający z siebie nowe pomysły z szybkością światłą. To buble, które powędrują do kosza a chodzi o przykrywanie kolejnych afer i skandali.

Na rentowność wydobycia surowca składa się geologia eksploatowanego złoża, technologia wydobycia i koszt pracy. Kwestie rentowności są trudne do oceny jeśli stosowane są zaburzające system gospodarczo – społeczny dotacje i gospodarki działają w częściowej lub głębokiej izolacji od rynku światowego
W PRL ustalono że trwale nierentowne niektóre kopalnie węgla kamiennego w Polsce były już przed 1970 rokiem. W 1982 roku raport komisji gospodarczej za rządów junty Jaruzelskiego podał że w sumie są 22 kopalnie do zamknięcia z powodu trwałej nierentowności. Obecnie wszystkie kopalnie węgla kamiennego są już nierentowne i to od dawna.
W 1971 roku rząd podjął decyzję o budowie elektrowni jądrowej a w roku następnym wybrano lokalizacje w Żarnowcu. Sprawa szła opornie dlatego że w wizji ZSRR, Polska miała wydobywać dużo węgla i produkować bardzo dużo surowej stali.
Teoretyk biurokracji państwowej Max Weber sformułował tezę że  urzędnicy to po prostu, używając współczesnego języka, komputery biologiczne których programem są ustawy i rozporządzenia.   
Aby zastąpić porzucany w Polsce węgiel potrzeba będzie dodatkowo importować 40 - 65 mld m3 gazu ziemnego. Konsekwencje tego są oczywiste ale politycy wszystkich opcji nic nie widza !

Trwałość elementów elektronicznych spada wraz z temperaturą dwukrotnie co 7-10 C ale dopiero powyżej temperatury circa 30-35 C dlatego że w niższych temperaturach szkodliwa jest kondensująca się wilgoć. Szczególnie szybko pojemność tracą kondensatory elektrolityczne pracujące w wysokiej temperaturze.
Akumulatorom litowo – polimerowym żywotność skraca m.in. niska i wysoka temperatura. Największą trwałość w przechowaniu te akumulatory mają naładowane w połowie. W laptopie akumulatory te potrafią spuchnąć i uszkodzić elementy komputera.
Żywotność elementów półprzewodnikowych zmniejsza też zbyt duża gęstość prądu i dla kluczy mocy długa praca z napięciem bliskim maksymalnych.
Wszystkie klucze wysokonapięciowe z napięciem większym od 70% maksymalnego mogą pracować tylko krótkimi impulsami – chodzi o niebezpieczne promieniowanie kosmiczne.
Autor dawno temu potężnemu, wysokonapięciowemu tyrystorowi długotrwale podał bardzo duże napięcie blokowania, większe od nominalnego. Tyrystor miał znikomy upływ. Ponieważ zasilaczyk był małej mocy równolegle do tyrystora dano szeregowy dwójnik RC aby tyrystor mógł się ewentualnie załączyć a  już załączony tyrystor poprzez łańcuch 6x1N4007 diod zapalał żarówkę i zasilał buczek. Dopiero żarówka miała wystarczający prąd do potrzymania załączenia tyrystora. Tyrystor miał duża dynamiczną odporność stromościową napięcia du/dt =1000 V/us oraz duży wymagany  prąd i ładunek bramki.
Tyrystor  ( całość w szufladzie zamkniętego biurka ) blokował prawie dwa miesiące aż tu nagle w słoneczny dzień się załączył bez żadnego powodu! Zupełnie nic mu się nie stało i nadal miał identyczny  znikomy upływ jak przed incydentem. Ziemia jest drobinką w Kosmosie co widać, słychać i czuć.
Zaleta dużego tyrystora jest bardzo duża struktura i wielki prąd a drobną wadą może być mała czułość bramki.
 To wysokoenergetyczne promieniowanie pewnie zmieni też bit w pamięci lub w procesorze toteż w odpowiedzialnych zastosowaniach konieczna jest kontrola pamięci kodem detekcyjnym lub lepiej korekcyjnym.   
W „Fault Tolerant” podano w jakich urządzeniach stosowane są zasilaczyki wysokich napięć. Mogą być one bardzo użyteczne. Mała moc jest ich zaletą bowiem nie stwarzają zagrożenia dla człowieka mimo iż impulsowe „porażenie” jest nieprzyjemne.
Fotodiody lawinowe przy napięciu pracy odrobinę większym (!) od „napięcia przebicia” pracują w modzie silnie lawinowym czyli jak licznik Geigera Millera.
W inwerterach systemów HVDC  łączonych jest kilkadziesiąt (z nadmiarem) szeregowych tyrystorów wysokonapięciowych. Chwilowe załączenie ( czas na rozładowanie dwójnika RC gasika ) jednego tyrystora przez promieniowanie kosmiczne nie powinno w żadnym razie wpływać na stan pozostałych. Uszkodzenie - przebicie jednego tyrystora czyli jego zwarcie nie wymaga wyłączenia systemu z użytku i naprawę prowadzi się przy zaplanowanym przeglądzie.
Cząstki promieniowania kosmicznego lub kwant promieniowania gamma mają energie od 10e9 eV aż do 10e21 eV czyli ponad 50 J czyli tyle ile ma pędząca piłka. Jedna super wysokoenergetyczna cząstka lub kwant promieniowania gamma promieniowania kosmicznego może spowodować powstanie w atmosferze wielkiej kaskady przeróżnych cząstek.

Współcześnie producenci wielkich, wysokonapięciowych tranzystorów IGBT i wyłączalnych tyrystorów IGCT - GTO uwzględniają wpływ promieniowania kosmicznego !
Statystycznie pioruny uderzają częściej w wysokie budowle. Autor jest zdania że sama inicjacja wyładowania atmosferycznego powodowana jest oczywiście przez promieniowanie kosmiczne, które ciągle jest badane.
Ochrona przewodem odgromowym energetycznej linii Wysokiego lub Najwyższego Napięcia przy dobrym uziemieniu słupów linii  oraz stosowanie odgromników warystorowych w stacjach elektroenergetycznych są skuteczne i uderzenie przeciętnego pioruna w linie nie zakłóca pracy systemu przesyłu i dużej dystrybucji energii. Jednak piorun bardzo silny spowoduje przebicie na izolatorze fazy na słupie.  Linie WN i NN pracują z uziemionym punktem zerowym i przy uderzeniu pioruna konieczne jest chwilowe automatyczne wyłączenie fazy na czas dejonizacji łuku na izolatorze  zasilania jednego przewodu linii.  

Laptopy mają już 30 lat. Programy podające temperaturę procesora ale także wielkość zużycia systemów komputera, są powszechnie dostępne. Kupując laptopa szukamy w internecie informacji o  nim a zwłaszcza o temperaturze procesora. Gdy w sklepie nie możemy sprawdzić temperatury w obciążonej maszynie w żadnym razie nie kupujemy w ciemno kota w w worku. Niestety jest już sporo maszyn gdzie temperatura maksymalnie obciążonego procesora sięga 100 C. Gdy temperatura procesora w kupionej wysyłkowo maszynie jest za duża od razu ją zwracamy.  Procesory Intela mają wbudowany mechanizm zapobiegający momentalnemu zniszczeniu automatycznie obniżający częstotliwość taktowania przy temperaturze ponad 100 C ale nonsensem jest kupowanie wydajnej maszyny która intensywnie używana po roku pracy ( to patologiczny „kapitalizm zużycia” ) jest do wyrzucenia
Pamiętajmy że producenci laptopów potrafią w masowej produkcji zastosować inne ekrany i pamięci niż w produktach przesłanych redakcjom gazet do oceny. Wlutowanie pamięci też nie budzi zachwytu. Dość szybko zużywają się też wentylatory. Awaria HD wynika z intensywności jego użycia.

Pamięci Flash zrewolucjonizowały produkcje i rynek mikroelektroniki. Zawartość pamięci Flash nie jest wieczna  i żywotność zapisanej treści spada wraz z temperaturą. Komórki Flash niestety odrobinę zużywają się przy zapisie.
Obecnie każdy mikrokontroler ma wewnętrzną pamięć programu Flash.  W komputerach PC pamięci Flash jako IC są wlutowana w płytę główną - eMMC, UFS. Występują na kartach MMC, SD... oraz w dyskach   SSD w formacie 2,5", mSATA lub  kart M.2 SATA lub NVME.
Początkowo w komórce pamięci Flash zapisany był jeden bit informacji ale pojawił się zapis wielopoziomowy dwubitowy (MLC), trzybitowy (TLC) i czterobitowy (QLC lub TLC ) a na horyzoncie jest pięć bitów (PLC). Im więcej bitów na komórkę pamięci tym mniejsza trwałość wyrażona w ilościach zapisów.
Parametr TBW określa trwałość nośnika – to ilość  danych jaką można pewnie zapisać w ramach gwarancji.  Autorzy artykułu poniżej postanowili pomęczyć napędy SSD.
https://techreport.com/review/27909/the-ssd-endurance-experiment-theyre-all-dead/
Wykres pokazuje ilość realokowanych sektorów w SSD w funkcji ilości zapisanych terabajtów danych.  „Dyski” SSD umierają po cichu bez żadnego ostrzeżenia.

 Od ponad 50 lat elementy elektroniczne montowane są praktycznie tylko na płytach drukowanych PCB. Płyty drukowane po produkcji są szybko kontrolowane specjalnymi testerami. Na „łóżku testowym” szpilki testera dotykają pól kontaktowych testowanej PCB. Ścieżki PCB są w testerze łączone grupami i każde takie połączenie jest testowane na przejście i na izolacje od pozostałych „połączeń”. Temat ten omówiono w „Fault Tolerant”. Od sposobu połączenia ścieżek testowanej PCB zależy to jakie wady nie zostaną ewentualnie wykryte w teście chociaż test jest zwykle bardzo szczelny.  Zatem „program” testu musi uwzględniać już zauważone wady ( to sprzężenie zwrotne) występujące w projekcie i w produkcji PCB. Ponieważ komputery są bardzo tanie to tester od dawna ma komputer PC.
W przypadku drukowanych płyt wielowarstwowych przy szukaniu wad użyteczne jest prześwietlenie płyty promieniami Rentgena X.
„Program” do sterowania maszyny montującej elementy na płycie PCB może dać program do projektowania PCB.
Po maszynowym zamontowaniu i zlutowaniu sprawnych elementów układ powinien działać. Pamięci stałe ( teraz głównie Flash ) „luzem” i w mikrokontrolerach oraz DAC i – potencjometry mogą być zaprogramowane przed montażem lub w układzie. Wstępnie ustawione muszą być potencjometry i regulowane lub gięte cewki w obwodach RF. Program systemu strojenia do automatycznego gięcia cewek RF w tunerach nie jest prosty.
Potencjalnie niebezpieczne jest podanie zasilania z zasilacza o charakterystyce Foldback ( koniecznie !) tylko do układów energoelektronicznych i wzmacniaczy mocy, których faza uruchamiania jest trudna a nawet wyjątkowo trudna.
Do układów energoelektronicznych stosowane są PCB o zwiększonej grubości miedzi. Prąd może płynąć kilkoma warstwami ścieżek PCB. Pamiętać należy że dopuszczalne obciążenie przelotek via płyty drukowanej jest niewielkie.
W latach siedemdziesiątych technologiczne „plastikowe” obudowy TOP3 wyparły połowicznie „zgodne” nimi metalowe obudowy TO3 a plastikowe obudowy TO220 wyparły „zgodne” z nimi metalowe obudowy TO66. Obudowy metalowe TO3 i TO66 wymagały bowiem drogiej pracy ręcznej w montażu. „Zgodność” była elementem bezbolesnego przejścia na nowe obudowy elementów mocy montowane automatycznie. Dalej obudowa TO220 gładko zamieniła się w obudowę TO252 do montażu SMD.
Większe elementy ( jak radiatory ) montowano ręcznie ale potem montaż zautomatyzowano ograniczając moc strat i wielkość radiatora.
Zestaw maszyn do montażu elementów w obudowach SMD już w latach osiemdziesiątych przebił wydajność miliona elementów SMD na godzinę
Producenci mikroelektroniki swoje nowe opracowania jak najszybciej udostępniają koncernom aby miały czas na zaprojektowanie nowego wyrobu z nimi i złożenie zamówienia. Wielkie zamówienia są podstawą egzystencji koncernów i stąd wielcy odbiorcy uzyskują niskie ceny. Koncerny mikroelektroniczne oferują też towar z półki / lub na zamówienie ale już po wyższej cenie. Towar ten dystrybuują duże światowe firmy handlowe mikroelektroniki. Firmy te trzymają swoje optymalne zapasy magazynowe aby handel był jak najbardziej płynny i aby minimalizować koszty logistyki. Zdarza się że nie przemysłowe ilości danego elementu można kupić natychmiast z magazynu wielkiego pośrednika a gdy chcemy kupić ilości przemysłowe otrzymujemy nieprzyjemny komunikat że czas oczekiwania będzie, na przykład wynosił 41 tygodni ale może się zmienić. Koncern mikroelektroniczny automatycznie konsoliduje zamówienia pośredników i dużych firm i gdy uzbiera się tego wystarczająco dużo to umieszcza produkcje w szczelinie czasu i produkuje a jak jest za mało to nie produkuje. Od dłuższego czasu koncerny samochodowe ograniczają produkcje bowiem brak jest na światowym rynku mikroelektroniki i zdolności jej produkcji.
Pośredników handlowych zaopatrują też firmy produkujące wyroby z części elektronicznych ze swoich nadmiernych lub zbędnych stanów magazynowym po ograniczeniu lub zakończeniu produkcji. Aby elementy sprzedać oferują niższe ceny niż koncerny mikroelektroniczne. I tu u pośrednika okaże się że przyszła cena ilości przemysłowych będzie wyższa niż obecna cena detaliczna !
Gdy wyrób jest udany a możliwości produkcyjne są ograniczone pojawia się spekulacja. Gdy  w pierwszej połowie lat osiemdziesiątych dobrze został przyjęty mikrokontroler 8051 Intela po fazie projektowania i testów nowych urządzeń z mikrokontrolerem przystąpiono do produkcji ale zaskoczony ilością Intel oferował długie terminy dostaw. Układami 8051 spekulowano co powtarzało się w innych okolicznościach z innymi elementami.  
Zgodnie z normami elementy elektroniczne są znakowane tak aby nie było wątpliwości co do producenta. Zawsze jest data produkcji aby producent mógł podjąć działania naprawcze. Gdy na elemencie jest za mało miejsca informacje umieszcza się na opakowaniach. Koncerny mikroelektroniczne dbają o swoją opinie. Gdy reklamacja jest zasadna ( mikrokontroler, tranzystor ) kurierem na koszt dostawcy dostaje się nowe sprawne elementy ale czasem niestety nie od razu.
Trudno jest powiedzieć skąd na rynku biorą się tak zwane podróbki bowiem przecież produkowanie podróbek ( ktoś bezprawnie produkuje pod cudzą marką ) jest poważnym przestępstwem.
Autorowi nie działał w 1989 roku energoelektroniczny projekt który powinien działać. Źle działał a tranzystory Mosfet ulegały bez powodu uszkodzeniu. Po porzuceniu projektu po 3 latach wmontowano tam z ciekawości na pewno sprawne tranzystory Mosfet. Projekt był poprawny a tranzystory tak wytrzymałe że działały bez radiatora osiągając makabryczne temperatury. Po obejrzeniu pod mikroskopem znakowania podróbki i na pewno oryginalnego elementu znakowania koncernu  widać że było oszustwo.
Jeszcze w 2012 roku japońskie bipolarne tranzystory mocy od dużego dostawcy okazały się podróbką.  W 2015 roku podróbką okazały się silne tranzystory IGBT.

Gdy w produkcji element okaże się słaby jakościowo, konieczne może być jego 100% testowanie jako że po prostu kupienie nowego elementu może być niewykonalne. Im bardziej złożone jest urządzenie i im większe jest prawdopodobieństwo uszkodzeń kaskadowych tym większy sens ma testowanie niektórych elementów przed produkcją
   
Już na początku lat siedemdziesiątych numeracja tranzystorów bipolarnych w amerykańskiej nomenklaturze 2N przekroczyła 6000 i tranzystory te okres burzliwego rozwoju miały za sobą. Ale oczywiście nadal wzrastała częstotliwość graniczna tranzystorów oraz parametry tranzystorów wysokonapięciowych. W latach osiemdziesiątych przyzwoite parametry osiągnęły moduły kluczy mostkowych tranzystorów Darlingtona. Pierwsze tranzystory wysokonapięciowe pojawiły na przełomie lat sześćdziesiątych i siedemdziesiątych. Do tego czasu zastosowania energoelektroniki były nieliczne. Do końca istnienia bloku wschodniego tranzystory wysokonapięciowe połowicze opanowano w NRD i Czechosłowacji a w pełni w ZSRR. Próby w  Polsce się nie powiodły.
Znakomitym kluczem na małe napięcia są tranzystory Mosfet mocy których masową produkcje podjęto w 1977 roku. Dobre parametry miały komplementarne  tranzystory V-MOS produkowane w Japonii ale technologia była trudna a  uzysk produkcyjny mały. W 1971 roku znano wszystkie tranzystory poza IGBT, które dopracowano w Japonii. Tranzystor ten stał się koniem roboczym energoelektroniki  na 30 lat de facto opóźniając prace z innymi materiałami niż krzem. O tym że krzem nie jest optymalny dla kluczy mocy wiedziano od dawna.
Wszystkie rodzaje kluczy bipolarnych cechuje spadająca szybkość przełączania wraz z napięciem maksymalnym kolektora / anody. Tranzystory IGBT oraz tyrystory wyłączalne GTO ( także IGCT ) cechuje także dające duże straty energii przeciąganie prądu po wyłączeniu.
W najbliższym czasie gro średniej mocy energoelektroniki to inwertery do samochodów elektrycznych EV i ich ładowarek, inwertery do paneli PV oraz układy energoelektroniczne do systemu wiatraków dużej mocy.  W dziedzinie EV konkurencja jest spora. Inwertery są coraz lepsze, mniejsze i lżejsze ale ich cena spada wolno.
Cena klucza mocy zależy od jego powierzchni oraz rozdzielczości użytej technologi, rodzaju obudowy i skali produkcji. Cena jednostkowa gabarytowej mocy ( napięcie maksymalne razy prąd ) w produktach masowych spada wraz z mocą klucza.
Potężne moduły IGBT i tyrystory IGCT zintegrowane z płytą drukowaną drivera są strasznie drogie i moc jednostkowa w nich kosztuje znacznie więcej niż w tranzystorach w obudowie TO264 co jest aberracją.
Wyjaśnienie tego stanu rzeczy jest w skali produkcji. ABB – Mitsubishi podają że wyłączalnych tyrystorów mocy IGCT wyprodukowano około 350 tysięcy co w świecie mikroelektroniki musi śmieszyć.  Skoro  te moduły IGBT i IGCT stosowano w falownikach w lokomotywach szybkich pociągów i w eksperymentalnych  modułowych systemach HVDC średniej mocy to wiele ich nie była potrzeba. Obłędna cena klucza dawała obłędna cenę falownika i wysoką cenę szybkiego pociągu. IGCT typu 5SHY35L4522 o dopuszczalnym napięciu chwilowym ( promieniowanie kosmiczne !) 4500 V i prądzie średnim 2.1KA kosztuje aż 3 tysiące dolarów. Jest powolny a dynamiczne straty mocy są koszmarnie duże. Stromość narastania prądu przy załączeniu wynosi 200 A/us jest żenująco słaba co pociąga za sobą duży rozmiar snubbera falownika i duże straty energii. Częstotliwość kluczowania jest do 350 Hz i klucze te mogą pracować tylko w falownikach wielopoziomowych z uwagi na zbyt duże tętnienia prądu modulacji PWM przy tak małej częstotliwości modulacji.
Konkurencyjny tranzystor IGBT ABB  5SNA2000K451300  o mocy 4500V /2000 A kosztuje około 6 tysięcy dolarów. Jest od tyrystora znacznie szybszy.
Wysokonapięciowe tranzystory IGBT mają swoja specyfikę i niespodzianki . Bramka tranzystora Infineon FZ2000R33HE4 3300V – 2000A ma być sterowana napięciami -15 / 15 V z rezystancjami załączenia Rgon=0.47 Ohma i wyłączenia Rgoff=2 Ohmy a przecież zwykle asymetria sterowania  jest dokładnie w drugą stronę ! Zwykle dynamiczny bezpieczny obszar pracy ma tylko tranzystor a nie jego antyrównoległa dioda. Przy napięciu 3300 V dopuszczalny dynamiczny prąd wsteczny diody przy jej wyłączaniu wynosi tylko około 1300 A. Przy niższych napięciach szybko rośnie. Aby ten prąd był tak mały przy pełnym obciążeniu tranzystor musiałby być powoli załączany i straty mocy przy włączaniu byłyby bardzo duże. Stąd rekomendacja producenta dla napięcia pracy tylko  1800 V.
Driver bramki tyrystora rodzaju IGCT na płycie drukowanej jest sprzedawany trwale zmontowany razem z tyrystorem „GTO” i stanowi jego integralną część ( jak w nazwie IGCT ) jako że indukcyjność obwodu bramki musi być bardzo mała <3 nH co zapewni specjalny projekt wielowarstwowej płytki drukowanej. Przy awaryjnym wyłączeniu przez tyrystor prądu >10 KA prąd bramki przekracza >4 kA i stąd taka ilość połączonych równolegle tranzystorów Mosfet drivera i kondensatorów w zasilaczu. Driver z izolacją transoptorami lub transformatorkami impulsowymi pewnie chroni tyrystor przed zniszczeniem. Załączaniu a zwłaszcza wyłączeniu tyrystora towarzyszą potężne impulsy strat mocy. Gdy czas wyłączenia tyrystora był zbyt krótki układ sterujący nie pozwoli go znów załączyć aby tyrystor mógł „odpocząć” i zamelduje o anomalii. Gdy podczas załączania w określonym czasie napięcie na tyrystorze nie spadnie wystarczająco szybko czyli w obwodzie mocy jest zwarcie jest on wyłączany choć jest to już dla tyrystora szkodliwie i ilość takich incydentów w czasie życia jest ograniczona. Driver nie podejmie pracy przy za niskich napięciach jego zasilania UVLO a przy spadającym napięciu wyłączy tyrystor. Dawniej takie funkcje realizował dość prosty układ a obecnie logika wykonana jest na programowalnym układzie  FPGA. Gdy driver nie ma zasilania, bramka tyrystora jest blokowana dla polepszenia stromościowej odporności dynamicznej du/dt na zakłóceniowe załączenie.

Słowo driver w energoelektronice jest pojemne znaczeniowo.
Oznacza w układzie scalonym mocy logiczny inwerter z powiększonymi ( ponad sygnałowe ) tranzystorami sterujący scalony tranzystor mocy.
Oznacza układ scalony  w wysokonapięciowej technologii CMOS na napięcie 600-1200 V dający bramce klucza prąd do 2A lub układ niskonapięciowy z izolującym transoptorem.
Driver do wspomnianego wielkiego tranzystora IGBT Infineon FZ2000R33HE4 daje szczytowy prąd załączenia do 20 A i wyłączenia do 10A. Ładunek bramki przy przełączaniu jest koszmarnie duży i wynosi 40 uC czyli tysiąc razy (!) więcej niż typowo ma tranzystor Mosfet w obudowie TO220.
Zintegrowany z tyrystorem driver w IGCT daje prąd wyłączenia bramki do 4000A i załączenia rzędu 5A ale może być zastosowane forsowanie do 50A.

Tranzystory Mosfet i IGBT są stosowane prawie wyłącznie w zastosowaniach impulsowych. Indukcyjności połączeń są minimalizowane aby można było zastosować jak najmniejsze ekwiwalentne rezystancje bramkowe Ron i Roff przy rozsądnych oscylacjach dla zmniejszenia dynamicznych strat mocy w kluczu przy przełączaniu.
Ale zachowanie nieliniowych pojemności bramki można tez obserwować bez prądów i napięcia mocy z S połączonym z D z powolnym sygnałem dla eliminacji efektów indukcyjności. Na oscylogramie pokazano napięcie na bramce tranzystora IRF740 przy podaniu sygnału z generatora prostokątnego o amplitudzie +-11.5V poprzez rezystor 10 KOhm. Na pierwszy rzut oka nie widać nieliniowości pojemności bramki Mosfeta ! Różnice pojawiają się gdy porównamy przebieg napięcia na bramce z napięciem na liniowym ekwiwalentnej pojemności. Napięcie na kondensatorze trochę szybciej się ustala przy dodatnim sygnale!

Zasilane inwerterami silniki mają między innymi zastępować prace mięśni ludzkich co czasem wcale nie jest proste.
W światowym systemie płace za prace bez użycia technologii nie mają związku z jej wydajnością.
Według listy znacznej szwedzkiej firmy skupującej tam runo leśne Balsjoe Frys & Baer Tajowie zbierają dziennie średnio 133 kg jagód, Ukraińcy 60 kg, Rosjanie i Białorusini 40 kg, Polacy i Bałtowie 10 kg, a Szwedzi 4 kg. Kunszt pracy Tajów widać dopiero w zwolnionym tempie. Trzeba czasu aby się tego nauczyć. Inwazorzy czyli „inżynierowie i lekarze Afryki i Bliskiego Wschodu” nie potrafią w ogóle jagód zbierać i nie wyrażają zainteresowani tą praca.
Ale także biały człowiek w bogatych miastach nauczony może pracować jak maszyna. Ciasto na bajgle z surowców wyrabia maszyna ale już bajgle szybko formują, gotują i pieką ludzie. To ciężka praca. Piekarnia w centrum wielkiego miasta produkuje dziennie do 40 tysięcy bajgli. To za mało na pełną mechanizacje i automatyzacje produkcji. Wytrenowani pracownicy pracują jak maszyny. Mimo iż jest to praca fizyczna zarabiają dobrze za swoją harówkę.
Bajecznie piękną figurę z różnokolorowego szkła może sobie zamówić bankster na biurko. Po zaakceptowaniu w końcu unikalnego rysunku ( wyćwiczeni artyści robią je bardzo szybko bez szemrania, są skanowane lub pokazane przed kamerą komputera  ) ręcznie lepi się z gliny lub modeliny i starannie obrabia przedmiot z którego robi się pośrednią metodą traconego wosku formę umieszczając w niej ze specjalnym lepiszczem kolorowy „piasek” z tłuczonego – mielonego  szkła. Po długim wypaleniu figurę starannie się obrabia i szlifuje używając tlenku ceru. Przyuczenie artystów i techników trwa bagatela... 6 lat.
Koszt pięknej szklanej figury ( przykładowo egzotyczny kolorowy ptak siedzący na gałęzi ) wynosi od 5 tysięcy dolarów w górę. Próbuje się używać drukarek 3D ale efekty nie są jeszcze satysfakcjonujące. Kluczem procesu jest rysunek który z zamówienia musi sporządzić artysta. O ile wykonanie figury do formy drukarką 3D jest możliwe to już umieszczenie kolorowych szkieł z lepiszczem w formie jest raczej trudne do wykonania.   
 
 Komputery na tranzystorach i układach scalonych małej skali integracji miały bardzo dużo elementów na dużej ilości płyt drukowanych mieszczących się w szafkach z gniazdami ze złożonym okablowaniem. Super komputer CDC-6600 miał co najmniej 400 tysięcy tranzystorów. Szczególnie dużo elementów mechanicznych angażowały peryferia – dyski, drukarki, czytniki. Produkcja komputerów była z tego względu domeną koncernów zdolnych prowadzić taką złożoną produkcje. Przez pewien okres IBM był synonimem komputera. Co komputer to system operacyjny i podstawowe oprogramowanie. Była to więc produkcja skrajnie niedemokratyczna.
 Ale już na początku lat siedemdziesiątych 16 bitowy procesor minikomputera wykonany na układach średniej MSI i dużej skali integracji LSI wymagał tylko 120-200 układów scalonych i potrafiono go umieścić na jednej dużej płycie drukowanej. Minikomputerów rodziny PDP-11 i ich kopi wyprodukowano niemało i to one zdemokratyzowały programowanie.
Radykalnie konstrukcje mikrokomputerów zrewolucjonizowały mikroprocesory, pamięci półprzewodnikowe i złożone scalone peryferia. Mogły zaistnieć takie firmy jak Apple, Commodore, Atari i Sinclair.
Płyty rozszerzeń do komputera PC produkowały niezależne firmy. Wyspecjalizowały się koncerny produkujące twarde dyski HD oraz napędy CD/DVD, monitory i klawiatury oraz różne drukarki.
O ile produkcja komputera PC uległa demokratyzacji to Microsoft w końcu zmonopolizował system operacyjny do komputera PC. System Windows nie jest systemem czasu rzeczywistego (!) co znakomicie utrudnia użycie komputera PC choćby do sterowania robota, maszyny CNC czy wielu innych zastosowań.

Wspomniano już scalony wielokanałowy przetwornik ADC do bezpośredniej współpracy z sensorami światła w rentgenowskim skanerze tomograficznym. Takie złożone układy scalone bardzo upraszczają konstrukcje elektroniki medycznych skanerów. Z kolei wydajność procesorów komputerów PC jest w zupełności wystarczająca do procesu rekonstrukcji obrazu i złożone układy wieloprocesorowe są zbędne. Zatem większa ilość firm może wyprodukować medyczne skanery choć elementów mechanicznych nadal jest sporo ale podsystemy ( bardzo trudny i skomplikowany zasilacz ) można też kupić 

Po złotym wieku kapitalizmu czyli powojennym okresie odbudowy gospodarek i prosperity zakończonym pierwszym kryzysem naftowym, mieszkańcy „zachodu” podstawowe potrzeby mieli już zaspokojone i koncerny mogły się rozwijać tylko i wyłącznie oferując nowe lub znacznie ulepszone wyroby. To koncerny prowadzą kosztowne wieloletnie programy technologiczne. Siemens jest narodowym koncernem elektrotechnicznym Niemiec. Dział półprzewodników jako Infineon wydzielono z niego dopiero w XXI wieku. Amerykanom okupującym Niemcy Zachodnie chęć demontażu koncernów niemieckich minęła gdy rozpoczęła się Zimna Wojna i USA doszły do smutnego wniosku że w Europie w konflikcie z ZSRR mogą realnie liczyć tylko na siłę Niemiec.  
Ciężar samochodu Volkswagen Golf w kolejnych wersjach wzrósł mocno ale obecny Golf poza nazwa nie ma nic wspólnego z dawnym Golfem czyli jest to zupełnie nowy wyrób.
Racją krajów wysokiej cywilizacji są innowacje jako motor wzrostu gospodarczego.
Samochodowy „telefon komórkowy” dla bogatych funkcjonował już ponad dekadę ale to opracowany w Europie cyfrowy system GSM zdemokratyzował mobilną komunikacje na całym świecie, która ma sens tylko gdy bardzo gęsta jest sieć stacji bazowych i ogromna ilość telefonów.
Ogromne sukcesy w dziedzinie telefonii GSM odniosła Finlandia i Szwecja ale tylko dlatego że odpowiednie, korzystne  regulacje rynkowe wydały wspomagające koncerny rządy słusznie upatrujące w tym gigantyczny interes.
USA w wielodekadowym programie automatyzacji wojny łączność cyfrową stosowano od dawna ale to jednak Europa wypracowała znacznym nakładem pracy i kosztów dojrzały standard GSM.
Chociaż cyfrowe przetwarzanie sygnałów DSP narodziło się w USA to Sony – Philips  i inne cywilne koncerny Europy i Japonii opracowały nowe rewolucyjne rozwiązania i zdemokratyzowały tą technologie. Od kilku lat liderem systemu 5G są Chiny i USA usiłują osłabić chińskie firmy metodami zabronionymi przez prawo międzynarodowe.  

Pierwsze kuchnie indukcyjne produkowano już w latach siedemdziesiątych ale dopiero tania produkcja dobrych kluczy energoelektronicznych w postaci tranzystora IGBT spowodowała gwałtowną popularyzacje tego fajnego urządzenia w domowej kuchni. Tranzystor IGBT pchnęli do przodu Japończycy.
Płyta indukcyjna z dobrą sprawnością transferuje szlachetną energie elektryczną do nagrzewanego ferromagnetycznego garnka. Sprawność transferu jest o wiele lepsza niż przy elektrycznych kuchniach oporowych. Kuchnia gazowa ma mniejszą sprawność ale energia chemiczna – cieplna w gazie jest znacznie tańsza niż szlachetna elektryczna. Jednak do atmosfery kuchni czyli domu nie dostają się szkodliwe spaliny z gazu i oszczędza się na energii cieplnej przy wentylacji mieszkania.
Cewka pod - garnkowa w płycie indukcyjnej jest w obwodzie szeregowym LC. Tranzystory IGBT dla zmniejszenia strat wyłączania są zbocznikowane kondensatorami zmniejszającymi szybkość narastania napięcia du/dt.
Półmostek IGBT zasilany jest napięciem tętniącym ( nie ma kondensatora elektrolitycznego ) z sieciowego prostownika mostkowego aby duży był współczynnik mocy pobieranej z sieci mocy. Wysokonapięciowe drivery CMOS bramek IGBT są obecnie bardzo tanie. Sygnał sterujący może generować mikrokontroler 8, 16 i 32 bitowy.
Producent inverterów i elektroniki do płyty indukcyjnego zgarnia dużą marże a „składacz” gotowej kuchennej płyty indukcyjnej niewielką marzę. Prostszy inwerter może być wykonany nawet na jednym tranzystorze IGBT ( o maksymalnym napięciu 1400-1700 V ) a nie na półmostku ale jest to gorsze rozwiązanie.
Przy używaniu rozsądnie małych naczyń do gotowania zużycie energii elektrycznej nie jest duże w bilansie domu.
Starym ale bardzo użytecznym urządzeniem jest czajnik do wody. Nie należy do niego lać niepotrzebnie dużo wody.
Także niewiele energii zużywa domowy toster i opiekacz. Jednak jednostkowe zużycie energii w przemysłowym opiekaniu powleczonego masłem tosta jest znacznie mniejsze !

Pierwsze kuchnie mikrofalowe pojawiły się już po II Wojnie ale były bardzo drogie. Bardzo popularne w USA kuchenki mikrofalowe były mniej popularne w Europie Zachodniej i praktycznie nieznane w Polsce jako PRL.
W domowej kuchence mikrofalowej ciężki żelazny transformator sieciowy 50/60 Hz dostarczający wysokie napięcie dla magnetronu został wyparty przez pół - rezonansowy zasilacz z kluczem IGBT i transformatorem ferrytowym.

Znaczną popularność zdobywają Thermomixy. Metalowy pojemnik miksera z ostrym dolnym mieszadłem - nożem jest dodatkowo podgrzewany elektryczną grzałką sterowaną grupowo triakiem poprzez procesor. Regulowany napęd miksera stanowi silnik BLDC lub silnik reluktancyjny zasilany z inwertera PWM. Urządzenie ma wbudowaną wagę i termometr. Komputerek z wyświetlaczem LCD może pobrać poprzez WiFi ze smartfona przepis z Internetu instruując kucharza co ma krok po kroku robić. Gdy miksuje lub podgrzewa informacja o czasie operacji jest podawana na ekranie LCD  miksera.
Autor wczesny prototyp termomixa widział już na samym początku lat dziewięćdziesiątych. Mały, tekstowy wyświetlacz LCD sprawiał że nawigacja była trudna. Ilość receptur w pamięci była bardzo duża ale dotarcie od nich było mocno kłopotliwe. Tranzystory Mosfet do trójfazowego mostka zasilania silnika BLDC były jeszcze drogie i nie było jasne czy jednak nie lepszy będzie silnik prądu stałego. Sama idea termomixa jest stara ale tanienie mikroelektroniki sprawia ze tanio można go obecnie wytworzyć
Oczywiście optymalny wybór odpowiedniego mikrokontrolera do termomixa mocno upraszcza konstrukcje jego elektroniki.   
 
Kuchni indukcyjnej na razie brakuje sensorów ( wagi i pirometrów ) i Inteligencji. Kipiąca potrawa rozlewając się po płycie indukcyjnej potrafi zwiększyć na maksimum jej moc. Irytujące jest 3 sekundowe odblokowanie kuchni po włączeniu.
Identycznie ze względów bezpieczeństwa odbiornik LCD-LED bez włącznika sieciowego trzeba załączać pilotem przynajmniej sekundę.

Płyta indukcyjna i inne nowości do kuchni do krajów uboższych docierają teraz ze stosunkowo małym opóźnieniem. Dawniej różnice cywilizacyjne były ogromne i nowości docierały na peryferia po dekadach.
W erze przed energią elektryczną  w bogatszym brytyjskim i amerykańskim domu na wsi na blacie przy zlewie była dźwignia do pompowania wody ze studni ! Studnia nie zamarzała w zimie. Wynalazek ten znany był tylko w zaborze pruskim i na terenie po nim. Wodę pompowały też wiatraki. Już przed wojną tuż po elektryfikacji zastosowano w USA w studniach pompy elektryczne z automatycznym włącznikiem. W PRL wiejskie wodociągi pojawiły się bardzo późno.
 
Osiągnięcie dojrzałości rynkowej przez akumulatory Litowo – Jonowe pozwala produkować samochody elektryczne ( autobusy, pociągi, promy ) ale też elektryczne hulajnogi, rowery i motocykle oraz narzędzia. Motocykle mają duże przyśpieszenie i maksymalną prędkość 160 KM/h.  Nie ustępują motocyklom z silnikiem spalinowym. Producent elektrycznej hulajnogi, roweru motocykla.. nie ma dużej marzy. Dużą marże ma producent kontrolera, akumulatora i silnika... do tych produktów finalnych. Tesla, która jest małym producentem samochodów przy gigantach światowej motoryzacji, jednak  sama produkuje większość systemów swoich EV a w tym  inwerter i silnik asynchroniczny.
Oczywiście każdy motocykl po wyprodukowaniu trzeba przetestować na odpowiednim skomputeryzowanym stanowisku.
Tak samo producent nowoczesnej pralki i lodówki korzystając z gotowego kontrolera z wyświetlaczem LCD, inwertera, silnika... ma mała marże. Produkcja finalnego wyrobu jest łatwa ale marża jest mała. 
 Akumulatory Litowo - Jonowe wymagają odpowiedniego traktowania aby nie stanęły w płomieniach toteż opracowano odpowiednie układy scalone do systemów ich nadzoru. Temat ten będzie dalej omówiony. Systemy te muszą być ulepszone bowiem zapłon akumulatora samochodu elektrycznego kończy się na żarzącej się kupce złomu nad zapalonym czasem asfaltem drogi.         

Bezpieczeństwa pożarowego nie wolno lekceważyć. Pożary robią na osobach które je z bliska obserwują trwałe wrażenie. Zapłon EV w garażu oznacza pożar domu jednorodzinnego lub nawet bloku mieszkalnego z garażem i w najlepszym razie duże szkody materialne. 
W przeszłości wielokrotnie paliły się amerykańskie lotniskowce. Wadliwe były systemy wykrywające i automatycznie gaszące pożary. Systemy latami były niesprawne. Zawodzili też ludzie.
W lipcu 2020 roku na potężnym ( wyporność 41 tysięcy ton,  długość 257 m ) śmigłowcowcu USS "Bonhomme Richard" wybuchł pożar, który trawił okręt przez cztery dni. Komisja marynarki wojennej ustaliła, że w wyniku pożaru zniszczone zostało 11 z 14 pokładów. Ściany, sufity i podłogi zostały wypaczone i wybrzuszone, a nadbudówka z mostkiem i systemami łączności, radarami i centrum operacyjnym doszczętnie wypalona.
W listopadzie 2020 roku marynarka wojenna uznała, że próba naprawienia uszkodzeń i przywrócenia "Bonhomme Richard" do służby zajmie od pięciu do siedmiu lat. Remont miałby kosztować nawet 3,2 mld dolarów, a okręt desantowy-dok najnowszego typu America, można wybudować za 4,1 mld dolarów. W rezultacie podjęto decyzję wycofania z eksploatacji i przekazania go na złomowanie.

Na razie samochodów elektrycznych EV jest bardzo mało na tle samochodów spalinowych i trudno przewidzieć jaka będzie skala stwarzanego zagrożenie pożarowego. Można rozważać różne taktyki walki z pożarem EV:
-Najszybsze zabranie sąsiednich samochodów przez kierowców przy oznakach pożaru EV. System mając dane – rejestracje  samochodów z automatycznego rozpoznania tablic wzywałby przez smartfony użytkowników ( na przykład robiących zakupy ) i głośniki do natychmiastowego zabrania samochodu z parkingu. Samochody mogli by tez przestawić strażacy w strojach ochronnych
-Zraszacze mogły by oblewać wodą sąsiednie samochody aby się nie zajęły a płomień płonącego samochodu schłodzić drobno rozpyloną masą wody, która zmieniałaby się w parę wodną absorbując ogromną ilość energii cieplnej silnie tłumionego płomienia. W gaszonym samochodzie płonął by tylko akumulator ale już nie wszystkie plastiki.
-Rozkazy ewakuacji dla autonomicznych lub pół autonomicznych EV.    

Autor widział pożar akumulatora laptopa o pojemności 44 Wh. Akumulatorek laptopa jest mikroskopijny w porównaniu z osobowym EV ( 20 – 100 KWh ) ale potrafi narobić sporo szkody. 
Na wyposażeniu samolotu jest specjalny sprzęt do opanowania małego pożaru baterii litowo - jonowych w laptopie, smartfonie, tablecie... Mimo tego piloci natychmiast żądają awaryjnego lądowania. Wprowadzono międzynarodowe ograniczenia przewozu baterii litowo-jonowych i sprzętu nimi zasilanego.
- baterie o energii do 100 Wh / 2g, dozwolone są w bagażu podręcznym i odprawionym (urządzenie powinno być wyłączone i zabezpieczone przed przypadkowym włączeniem)
- baterie o energii od 100 do 160 Wh / od 2 do 8 g, jak te o mniejszej mocy, ale tylko po uzyskaniu zgody od przewoźnika
- baterie o energii powyżej 160 Wh/ 8 g, tylko jako przesyłka cargo.
 
Autor jako student ze sporej odległości obserwował w kwietniu 1981 roku pożar eleganckiego po niemieckiego kombinatu gastronomicznego „Kaskada”. Całkowitemu zniszczeniu uległ gmach „Kaskady” a życie szczęśliwie straciło tylko 14 osób bowiem w budynku było bardzo mało ludzi jak na ilości które tam bywały. Ogień od parteru szybko objął wszystkie 4 kondygnacje. Straż pożarna na wezwanie stawiła się bardzo szybko podejmując akcje. Temperatura wewnątrz płonącego budynku - pieca sięgała aż 1700C. Żar panujący wokół „Kaskady” topił pobliskie znaki drogowe, firanki i karnisze w okolicznych budynkach mieszkalnych oraz lakier na wozach strażackich. Płonęły samochody osobowe zaparkowane pod lokalem, a także okoliczne drzewa. Strażacy nie będąc w stanie ugasić płonącego budynku  podjęli ochronę sąsiednich obiektów aby pożar się nie rozprzestrzeniał. Po budynku pozostały jedynie niektóre żelbetowe elementy konstrukcji. 
Przyczyną pożaru było prozaiczne zwarcie w gnieździe elektrycznym gdzie rano sprzątaczka podłączyła odkurzacz. Wydzielający się masowo z szybko palącej się pianki poliuretanowej mebli fosgen ( jest to broń chemiczna !) zabił ofiary w ciągu 6 sekund.

Koncerny starają się eliminować szanse pożaru swoich wyrobów nawet kosztem utraty Image. Ryzyko zwarcia, a w konsekwencji pożaru wykryła właśnie w wyprodukowanych przez siebie autach koreańska Kia. Na polskim rynku kampania naprawcza objęła 22 718 samochodów. Mechanicy będą wymieniać bezpieczniki na niższy nominał w skrzynkach znajdujących się wewnątrz hydrauliczno - elektronicznej jednostki sterującej (HECU).
 
Według wszelkich opracowań całkowity koszt generacji energii elektrycznej w dużych „elektrowniach” fotowoltaicznych jest wielokrotnie mniejszy niż w zestawach paneli montowanych na dachach domków jednorodzinnych i domów wielorodzinnych czyli bloków i dachach budynków firm. Taka elektrownia słoneczna oddaje moc do sieci SN a duża do sieci WN. Jest szansa że pobór  mocy z GPZ gdzie moc dostarcza linią SN elektrownia słoneczna ( a nawet samej linii SN lub WN ) jest większy niż generacja z PV i energia nie będzie dwukrotnie stratnie krążyć po systemie dystrybucyjno – przesyłowym lub będzie krążyć w niewielkiej i nieszkodliwej ilości.
Warto zauważyć że czas do naprawy w dużej elektrowni z PV może być stosunkowo krótki. Firma operująca tymi „elektrowniami” PV na zestawy części zamiennych i potrzebne kompetencje ludzkie. W przypadku uszkodzenia małej instalacji PV na domu jednorodzinnym albo minął czas gwarancji lub jest ona niemożliwa do wyegzekwowania bowiem na przykład firmy montującej PV lub produkującej falownik już nie ma i nie ma nawet do niego dokumentacji co próbę naprawy czyni nonsensem. 
Także okresowe czyszczenie paneli z osiadłego  brudu sprawnie zorganizuje tylko w miarę duża firma. 
 Mimo tego niemiecki rząd federalny rozważa wprowadzenie wymogu budowy instalacji fotowoltaicznych dla nowych budynków. Rzecznicy konsumentów krytykują taki ogólny obowiązek jako „w ogóle niemożliwy” z kilku powodów.
Moc szczytowa PV jest bardzo duża w porównaniu z generowaną roczną mocą średnią. W Polsce bez pozycjonowania PV, około 10 razy - Polska nie leży przecież na równiku.
Wielkie przewymiarowanie sieci dystrybucyjnej  dla PV jest kosztownym nonsensem kapitałowym a następnie duże transformatory pożerałyby jałowo przez cały rok energie. Stąd energia z małych PV powinna być konsumowana lokalnie. Fabryka z panelami PV na dachach budynków zużywa więcej mocy niż generują jej PV ( także okoliczne ) na dachach jej budynku i nie ma problemu w dniach roboczych.
Problem za wysokich napięć w sieci najniższych napięć z generacją PV jest dość powszechny. Oto przykład.
W przypadku biurowca generowana moc PV na jego dachach jest dobrze skorelowana z mocą potrzebną systemowi klimatyzacji budynku a sporą moc pobierają także urządzenia biurowe ! Problemem są wyłącznie dni wolne od pracy.
We współczesnych klimatyzatorach silnik sprężarki jest zasilany z inwertera z mostkiem IGBT. Moc prądu stałego dla  inwertera pochodzi z drogiego aktywnego prostownika sieciowego, koniecznego dla zapewnienia dużego współczynnika pobieranej z sieci mocy. Możliwe jest zatem zasilanie inwerterów wprost stałym napięciem z paneli PV. Zmiany optymalnego napięcia z PV są korzystne bowiem inwerter pracując z mniejszą mocą z mniejszym napięciem DC ma mniejsze straty dynamiczne w kluczach !   

Także moc generowana przez panele PV na dachach bloków czyli budynków wielorodzinnych jest mniejsza od poboru mocy szczególnie jeśli w domu zamieszkuje dużo emerytów i dzieci oraz jest dużo firm usługowych i handlowych. Powstaje jednak problem z opomiarowaniem i rozliczeniem Wspólnoty Mieszkaniowej lub Spółdzielni Mieszkaniowej mającej te bloki z instalacjami PV w swoich zasobach. W obecnych uregulowaniach prosument może odebrać z sieci część wprowadzonej do niej energii. Tymczasem instalacje PV tych bloków niczego netto do sieci faktycznie nie wpuściły. Lokatorzy są przez dystrybutora energii rozliczani indywidualnie.
Dobre, stabilizujące system,  rozliczenie wymaga danych o poborze mocy w czasie zmieniających się cen energii. Stąd obecnie wymiana elektromechanicznych liczników energii na prymitywne elektroniczne jest piramidalnym nonsensem.
Na generacji PV i na zasilaniu grupy budynków WS / SM przez dystrybutora umieszczamy liczniki a lepiej  rejestratory. Nadwyżka operacyjna z PV zasila budżet WM / SM. Prawda że proste !  

W rozważaniach i w optymalizacji systemów użyteczne są wnioski wypływające z teorii podobieństwa maszyn elektrycznych ( ale nie tylko ich ) czyli transformatorów i generatorów.
Przy założonym stosunku kosztu kilograma miedzi uzwojenia do żelaza rdzenia, gęstości prądu w uzwojeniach i indukcji w rdzeniu, masa maszyny rośnie w potędze 3/4 do jej mocy a więc powoli. Jednostka mocy w maszynie mocy 1 GW jest 31.62 razy lżejsza niż w maszynie mocy 1 kW ! 
Straty mocy są zaś proporcjonalne do masy maszyn a więc ich sprawność rośnie wraz z ich mocą.
Transformator na wyższe napięcie NN jest cięższy od transformatora takiej samej mocy na niższe napięcie sieciowe z uwagi na użytą obszerną izolacje wymuszająca też powiększenie rdzenia. To jednak nie podważa użyteczności teorii podobieństwa.
Słowo optymalizacji wymaga ostrożności ! Transformator może być przecież optymalny pod względem masy, rozmiaru, kosztu i całkowitego kosztu transformacji w okresie przykładowo 30 lat działania.
Optymalizacja maszyn nie jest prosta. Już analityczne ( czyli nie numeryczne, m.in. dany iloraz kosztu kilograma miedzi do żelaza  ) wyliczenie optymalnych kształtów rdzenia ( na przykład EI ) metodą mnożników Lagrange wymaga pewnych uproszczeń. Gdy trzeba wziąć pod uwagę dodatkowe czynniki najlepsze mogą być rdzenie wycinane bezodpadowo.
Nic dziwnego że pierwsze lampowe komputery gigantyczne amerykańskie koncerny zaprzęgły z inżynierami do optymalizacji rodzin maszyn elektrycznych.  
Rozkład gęstości „zaludnienia” odbiorców wyznacza optymalną budowę sieci WN, GPZ, SN i nn.
Wynika z tego że straty mocy w krótkiej sieci łącznie z dużymi transformatorami są dużo mniejsze w gęstym mieście niż na rzadko zaludnionym obszarze wiejskim gdzie dochodzi do takiej paranoi ze straty energii  w małych transformatorach SN/nn są niewiele mniejsze niż pobór energii przez odbiorców za co płacą odbiorcy miejscy.
Prawa podobieństwa są istotne w kontekście alokacji kapitału inwestycyjnego. 
W kraju bogatym gdzie kapitał jest tani a praca droga warto użyć droższych niskostratnych transformatorów energetycznych. W rozwijającym się kraju uboższym gdzie kapitału jest mało i jest drogi a praca jest tania, tańsze transformatory trzeba po wzbogaceniu się po 15-25 latach wymieniać.
Tam gdzie energia jest tania racjonalne jest użycie tańszych transformatorów o większych stratach a tam gdzie jest droga trzeba stosować transformatory niskostratne.

Przy stałej mocy cieplnej oddawanej do otoczenia przez jednostkę powierzchni przewodu i tej samej temperaturze maksymalnej ( chodzi o zwis nagrzanego przewodu ) prąd maksymalny rośnie w potędze 3/4 przekroju. Przewodem o 2 razy większej średnicy może płynąć prąd tylko 2.82 raza większy mimo iż  przekrój wzrósł 4 razy. Stąd przewód linii NN wielkiej mocy ma kilka równoległych linek. Od 2 do 8. Natężenie pola elektrycznego przy przewodzie wielolinkowym znacznie spada i spadają straty energii na wyładowania niezupełne czyli ulot. Korzystnie dla stabilności systemu przesyłu wzrasta pojemność przewodu a spada indukcyjność czyli spada impedancja falowa linii.

Dla optymalnej alokacji środków - materiałów w przybliżeniu długość wszystkich linii energetycznych powinna być proporcjonalna do ich napięć.
Najbardziej rozbudowaną sieć przesyłową w Europie ma Szwajcaria ze 165 km linii na 1000 km2 powierzchni. W Niemczech ten parametr wynosi 102 a w Polsce 42.  Gęstość sieci jest nierówna na terenie kraju.
Uregulowania prawne, dotyczące w Polsce  inwestycji w obszarze infrastruktury sieciowej są rozproszone w wielu ustawach i aktach wykonawczych do nich. Są nieprecyzyjne, niejednoznaczne, niespójne, sprzeczne ze sobą  i często się zmieniają na skutek wielokrotnych nowelizacji. Stwarzają one utrudnienia powodując powstanie barier prawnych i administracyjnych. Stąd też szansa że Polska będzie elementem ewentualnego przyszłego potężnego systemu przesyłowego Europy jest znikoma. Oczywistością jest że grunt na którym postawiona jest linia NN / WN traci wartość i właściciel musi dostać stosowną rekompensatę ale skorumpowane polskie sądy zamieniają procedurę odwoławczą w  tragifarsę i dochodzi do wyłudzeń. Wycena szkód powinna być obiektywna i przeprowadzona automatycznie !
Rozwiązaniem nie wymagającym zajęcia nowego terenu jest modernizacja linii przesyłowej z podwyższeniem napięcia z 220 KV na 400 KV oraz dwutorowa linia kompaktowa w miejsce starej linii. 
System elektroenergetyczny jest z założenia redundantny i ma niezawodnie pracować po wszelkich awariach. Niestety obrazy systemów przesyłowych jakie pojawiają się w raportach po awariach są smutne:
-Systemy komputerowe realnie służą tylko i wyłącznie do tego aby hakerzy mogli zniszczyć lub chociaż obezwładnić system energetyczny w razie konfliktu
-Programy nie potrafią w sytuacji awaryjnej podjąć optymalnych decyzji a wyprzedzające odłączenie części odbiorców jest raczej rzeczą zupełnie niemożliwą do żądania od nich
-Przy szacowaniu temperatur i zwisów przeciążonych linii przesyłowych nie bierze się pod uwagę ogólnie dostępnych informacji jak temperatura, siła wiatru i opady. Nie analizuje się nawet zdjęć gdzie widać że przy większym zwisie i silnym wietrze przewód dotknie korony drzewa. 
-Elektrownie nie mogą pracować wyspowo bo decydenci uznali że wojny i katastrof już nigdy nie będzie. Bez zewnętrznego zasilania nie wznowią pracy. 

Moc wymagana do tłocznia rurociągiem płynu rośnie kwadratowo z prędkością tłoczenia czyli prędkością przepływu płynu. Z tego powodu stosowana prędkość przepływu płynu w długich rurociągach jest mała. Przykładowo paliwa w potężnych rurociągach ( średnica około 1000 mm ) we wschodniej części  USA płyną z prędkością 5-8 Km/h. Chcąc przy stałej mocy tłoczenia wydłużyć rurociąg z gorącą wodą z elektrociepłowni do odbiorców w wielkim mieście  musimy zwiększyć jego średnicę co pociągnie za sobą wzrost strat ciepła przez niedoskonałą izolacje ponieważ wzrośnie powierzchnia rurociągu. Stąd lokalizacja dużej elektrociepłowni gazowej dla dużego miasta jest krytyczna ! Sprawność dużej elektrociepłowni gazowo – parowej może sięgnąć 80% i sprawa jest potężnej wagi.

 Produkowanych jest mnóstwo elektronicznych przyrządów pomiarowych. Cena ich jest pochodną ich złożoności i serii produkcyjnej. Są przyrządy horrendalnie drogie. Nawet średniej firmy nie stać na kupienie wszelkich przyrządów po to aby ich incydentalnie użyć. Po użyciu i magazynowaniu przyrząd można sprzedać za ułamek ceny.
W starym polskim cyfrowym mierniku RLC E317 do zacisku L podane jest sztywne wyjście sinusoidalnego generatora 1 KHz z sygnałem 1.8 Vpp ( na używanym zakresie pomiaru ! ) o zerowej składowej stałej a zacisk H to wejście wzmacniacza w konfiguracji odwracającej czyli Virtual Ground. Zacisk GND połączony jest z masa układu. Oczywiście GND innych przyrządów wolno jest łączyć tylko z GND E317 ! Zatem po dołączeniu do zacisków L-H przyrządu mierzonego kondensatora na wyjściu tego wzmacniacza jest napięcie proporcjonalne do pojemności kondensatora. Po demodulacji synchronicznej ( odrzucenie części rzeczywistej impedancji ) sygnał podano do podwójnie całkującego przetwornika A/D w konfiguracji ratiometrycznej.

Aby zmierzyć przyrządem E317 pojemność elementu nieliniowego w funkcji napięcia polaryzacji należy element włączyć w szereg z izolującym składową stała kondensatorem i rezystorem ca 10 MOhm podać napięcie polaryzacji z zasilacza. Z odczytanego wyniku pomiaru łatwo oblicza się pojemność elementu uwzględniając szeregowy kondensator odcinający polaryzacje napięciem stałym.

Sprawdzenie
-Jak mocno sinusoidalne napięcie pomiarowe 1.8 Vpp czyli 0.64 Vac teoretycznie zawyży (?) pomiar nieliniowej pojemności bramki tranzystora Mosfet IRF540Z ( przykładowo, pdf )  przy Ugs=0Vdc ( ale ze zmiennym  napięciem pomiarowym )  i Usd=0V ?
-Należy zmierzyć funkcje pojemności wejściowej tranzystora Mosfet IRF540Z w funkcji napięcia stałego Uds podanego z regulowanego zasilacza. Narysuj schemat połączeń przyrządów i tranzystora.
- Należy zmierzyć funkcje pojemności wejściowej tranzystora Mosfet IRF540Z zależną od napięcia Ugs przy Uds=0. Narysuj schemat połączeń przyrządów, tranzystora i pomocniczych elementów R i C.


Ćwiczenie
1.Są dwa tranzystory mocy IGBT oznaczone FGL40N120AND ( pdf, produkowany ) ale tylko jeden jest oryginalny a drugi jest oszukańczym śmieciem ale w jego obudowie jest słaby i wolny tranzystor IGBT. Tranzystor FGL40N120AND jest bardzo szybki i dość niskostratny jak na swoje napięcie. Napięcie stałe urządzenia energoelektronicznego z tymi tranzystorami wynosi aż 800 Vdc a kondensatory elektrolityczne aktywnego prostownika są duże co do energii zgromadzonej. Jeśli w półmostku użyjemy dwóch podróbek to one eksplodują. Jeśli drugi tranzystor jest oryginalny działa zabezpieczenie ale urządzenie nie działa.
-Używając miernika RLC ( pojemność Cge przy Uce=0 ) E317 oraz zasilaczyka wysokiego napięcia ( napięcie Uce tranzystora) oraz mikroskopu USB i innych elementów  z logiem producenta  wskaż podróbkę.    

2.Są dwa tranzystory mocy oznaczone 2SC2922 Sanken ( pdf,  są jeszcze produkowane ) ale tylko jeden jest oryginalny a drugi jest oszukańczym śmieciem ale w jego obudowie jest tranzystor bipolarny mocy. Znakomite tranzystory pojawiły się na koniec lat osiemdziesiątych. Mają bardzo szeroki obszar bezpiecznej pracy SOA ( są nieomal pancerne przy innych tranzystorach ), są liniowe i mają dużą częstotliwość graniczną.
-Używając dwóch połączonych zasilaczy 30V/3A, miernika DVM i RLC oraz potencjometru  wskaż podróbkę najlepiej bez jej zniszczenia.
 
3.Porównaj oscylogramy z przetwornicy z IGBT w kuchence mikrofalowej  Samsung z symulacją programową. W kuchence ma być dzbanek z wodą i nie należy za długo jej włączać aby nie doprowadzić do wrzenia wody.  Zmierzone dane transformatora są podane  na schemacie. Model magnetronu to nieliniowy rezystor  a jego zarżenie to rezystor. 
-Co jest przyczyna niewielkich różnic między realiami a symulacją ?

4.Sprawa szybkiego testowania na linii wyprodukowanych elementów elektronicznych lub testowania dodatkowego przedprodukcją nie jest prosta szczególnie gdy stosowane są w teście duże napięcia i prądy. Tester współpracuje z całą mechaniką transportu i jej sterowaniem.
Pokazany na schemacie pomysłowy i niezawodny system „złącza - podstawka pomiarowa” do tranzystora (niekoniecznie mocy) NPN bez drogich złącz Kelwina detekuje ( sygnał logiczny jest tez podany do sygnalizującego LED-a ) obecność w podstawce „tranzystora” także niesprawnego. Wystarczy że do struktury tranzystora  i to nie koniecznie sprawnej dochodzą dowolne dwie z trzech elektrod tranzystora.
-Podaj schemat swojego rozwiązania zadania detekcji obecności „tranzystora”. Ono nie może kolidować z późniejszym podaniem dużych napięć i prądów testowych Ic, Uce. W roli elementów „izolujących” mogą występować diody jako że nawet małe mają duże napięcia i prądy impulsowe.

7 komentarzy:

  1. https://thebl.com/us-news/the-secret-monopoly-that-controls-big-media-and-big-pharma-is-made-up-of-just-two-companies-says-report.html

    Zanim pisząc bajki o co2 i innycg głupotach virusowych wymyślonych warto przeciez wspomnieć, że to jedna wielka lipa. A ten interes obsługuje jedna grupa finansowa.

    OdpowiedzUsuń
  2. Temat cyklu jest bardzo pojemny i niemożliwy do wyczerpania. Może być ciągnięty i 20 lat. Fajnie się to czyta ale to Sprawdzenie i Laboratorium to raczej poziom MIT albo NASA ale nie PL

    OdpowiedzUsuń
  3. Tematy Sprawdzenie i Cwiczenie są ponad studia doktoranckie. Za trudne ale super ciekawe.

    OdpowiedzUsuń
  4. W tym wpisie znajduje się wiele ważnych i ciekawych informacji.

    OdpowiedzUsuń