poniedziałek, 6 września 2021

Laboratorium zaawansowanej elektroniki i automatyki 32

 Laboratorium zaawansowanej elektroniki i automatyki 32

 Każda średnia firma ma conajmniej księgowych prowadzących księgi i kadrowych prowadzących dokumentacje pracowniczą. W czasie pandemii Covid-19 wielu pracowników biurowych wykonuje pracę komputerami pracującymi w sieci w domu.  
Koszty transakcyjne obejmują zbieranie i poszukiwanie informacji o partnerze transakcji, negocjacje, zawieranie transakcji i jej nadzór, a następnie egzekwowanie zobowiązań. Pojęcie to pojawia się już w latach 30 XX wieku, zostało spopularyzowane przez Ronalda Coase’ego  i rozwinięte przez Olivera Williamsona  w teorii kosztów transakcyjnych. Coase zwracał uwagę, że za mało uwagi poświecą się kosztom transakcyjnym przy opracowywaniu modeli ekonomicznych, przez co teorie staja się bardzo odległe od zachowań gospodarczych.
Większość teorii ekonomicznych funkcjonuje bowiem tak, jakby koszty transakcyjne nie istniały, mimo iż każdy producent i handlowiec wie, że koszty te są duże. Koszty transakcyjne są centralnym pojęciem w neoinstytucjonalizmie. Koszta transakcyjne ponosi także państwo – utrzymując policje i sądy. Bez sprawnych sadów nie istnieje bezpieczeństwo transakcji. Utrzymanie sadów jest kosztem transakcyjnym płaconym jako podatek przez całe społeczeństwo. Polskie sądy należą do najdroższych i jednocześnie najgorszych na świecie. Im wyższa jest jakość instytucji formalnych i nieformalnych, tym niższe są koszty transakcyjne i wyższy wzrost gospodarczy.
Koszty ponoszone przez firmy wpływają na poziom kosztów i ceny wyrobów. Noblista Douglass North obliczył, ze w 1970 roku szeroko rozumiany sektor związany z transakcjami w Stanach Zjednoczonych dostarczył 45% PKB. Sam badacz był zaskoczony wielkością kosztów transakcyjnych. Douglass North nazwał ustrój postkomunistyczny „kapitalizmem pirackim”. Sprawny system informacji państwa znacznie redukuje wszystkie koszty transakcyjne. Szybki i łatwy internetowy dostęp do sądowych rejestrów spółek pozwala choć w przybliżeniu
ocenić potencjał partnera oraz jego związki osobowe i instytucjonalne z innymi firmami. Dostęp do wykazu spraw sądowych wytoczonych sprawdzanej spółce pozwala wyrobić sobie zdanie, czy mamy do czynienia z partnerem godnym zaufania – poważnym, honorowym, o wysokiej reputacji czy też z firma niepoważną, a może nawet oszustem. Sprawny system informacji pozwala też sprawdzać częściowo rzetelność sprawozdań spółek akcyjnych. Wreszcie wykaz przymusowych egzekucji komorniczych oraz kar administracyjnych też może sporo dać do myślenia.

Komputery bardzo szybko zastosowano w USA w biznesie. Komputer do „biznesu” musiał mieć arytmetykę dziesiętną a do celów naukowych zmienny przecinek. Stąd koncern IBM wprowadzając w 1965 roku rodzinę S360 nawiązał do ich uniwersalności jak kąt pełny 360 stopni - first family of computers designed to cover the complete range of applications, from small to large, both commercial and scientific.
Biznesowe zastosowanie komputerów w firmach nie polepszały wyniku firm aż do lat dziewięćdziesiątych i połączenia ich w sieć z użyciem efektu skali.

Twórcami WWW ( Termin WorldWideWeb  mimo iż stosowany zamiennie  nie jest dokładnie tym samym co Internet ) są brytyjski inżynier i naukowiec sir Tim Berners-Lee i  belgijski naukowiec Robert Cailliau, z którym Berners-Lee współpracował w ośrodku CERN. Pierwszy serwer WWW poza Europą został uruchomiony w Centrum Liniowego Akceleratora Stanforda (SLAC) dopiero w  grudniu 1992. Idea hipertekstu znana była już w latach sześćdziesiątych.
Mimo iż WWW narodził się w Europie to młodzi amerykańscy biznesmeni dostrzegli w nimi potężny efekt skali. Stąd eBay, Amazon, Booking, Uber, PayPal, Google, Facebook, Twitter...  
Potężny efekt skali dostrzeżono też w Chinach, które słusznie nie pozwalają szarogęsić się Amerykanom na swoim rynku i sami mają własne cyfrowe giganty.  

Natomiast potęga Internetu nie poruszyła wyobraźni Europejczyków a zwłaszcza biurokratów.
Największy efekt skali w informatyzacji w Polsce był w ZUS i bankach. W obu przypadkach użyte systemy są względnie proste a w USA banki komputeryzowano już w latach sześćdziesiątych. Z uwagi na niewielkie możliwości tamtych komputerów przepisy przetworzone w algorytmy programu musiały być proste. To też tłumaczy dlaczego komputeryzacja biznesu i finansów w USA poszła gładko a gdzie indziej są ciągłe kłopoty.  
Ponieważ ZUS ma dużo danych nic dziwnego że Prokom oligarchy Krauzego stworzyły prawdopodobnie WSI. Chcąc  obecnie zautomatyzować pracę urzędników trzeba tworzyć dużo bardziej skomplikowane programy a efekt skali jest mały.

Ponieważ jakość rozpoznawania mowy jest obecnie całkiem dobra to można  zautomatyzować lecznicze Teleporady. Telefoniczny dialog prowadzony przez lekarza nie jest specjalnie dociekliwy i program komputerowy może pacjenta wypytać i zdiagnozować o wiele lepiej. Oczywiście program ma dostęp do historii choroby pacjenta. Po rozmowie na serwerze dostępnym aptekom jest recepta dla pacjenta, który może kupić leki na receptę. W Teleporadzie z reguły chodzi tylko o wystawienie kolejnej recepty.
   
Swoją drogą ciekawe są zapowiedzi rządu dogonienia przez Polskę Europy Zachodniej gdy nie mamy własnego nowoczesnego przemysłu, handlu a nawet część banków jest obca. Ja na razie szybko zmierzmy do ubóstwa energetycznego. Nadumieralność w postaci 160 tysięcy daje nam miejsce III Światowe.
 
Regulacje w świecie są przeróżne. Nie zawsze skomplikowane rozwiązania dają dobre efekty a wielokrotnie dają złe wyniki. W Polsce stosunki pracownik – pracodawca reguluje Kodeks Pracy i wiele Rozporządzeń ministrów. Sejm w kierunku neoliberalnym przy KP dłubie prawie bez przerwy i prawie zawsze pogarsza sytuacje pracownika. Skala biegunki legislacyjnej jest szalona.
W USA Kodeksu Pracy w zasadzie nie ma to znaczy jest mały kadłubek. Pracodawca nie jest zobowiązany dawać pracownikowi urlop wypoczynkowy i 23 % pracodawców USA tego nie robi. Po porodzie można wziąć do 12 tygodni bezpłatnego wolnego. Te 77 % prywatnych firm, które w USA dają  pracownikom płatny urlop, daje go średnio 10 dni oraz płaci im za wolne w czasie ośmiu świąt państwowych w roku co daje razem 18 dni.  W Polsce etatowy pracownik ma od 33 do 39 dni wolnych zależnie od stażu pracy. Przy zwolnieniu z pracy pracodawcy USA często ograniczają się do powiedzenia „you’re fired” czyli „jesteś zwolniony”.
W Polsce pracodawcy lekceważą Kodeks Pracy i gdy pracownik kieruje sprawę do Sądu Pracy najtaniej jest pracodawcy zapłacić łapówkę sędziemu pośrednio lub bezpośrednio. W rezultacie mimo bełkotliwych gwarancji danych przez KP i Rozporządzenia pracownik ma realnie podobną sytuacje jak w USA i próba dochodzenia praw w skorumpowanych kraju naraża go na poważne koszta. Czyli realnie państwo biegunką legislacyjną działa na szkodę pracowników.
Z uwagi na ciągłe dłubanie, programy do kadr nie są zmieniane od lat i rozliczenia z pracownikami są błędne

Firmy europejskie produkujące półprzewodniki znajdują się niestety poza pierwszą dziesiątką tego typu firm w świecie. Półprzewodniki czyli układy scalone i różne tranzystory oraz diody są w każdym nowoczesnym produkcie. Komisja Europejska planuje, by do 2030 roku „produkcja najnowocześniejszych i zrównoważonych półprzewodników w Europie, w tym procesorów, wynosiła co najmniej 20 procent produkcji światowej pod względem wartości”.
UE powinna dążyć do zmniejszenia podatności na zagrożenia poprzez wzmocnienie lokalnych zdolności produkcyjnych. UE będzie nadal ściśle współpracować z kluczowymi zainteresowanymi stronami w celu dalszego pogłębienia analizy i monitorowania rozwoju sytuacji.
Czyli Korea, Tajwan i Chiny jeszcze umocnią swój światowy monopol !

Polityka z technologią połączone są tysięcznymi więzami.
Instytucje badające temat rozwoju gospodarczego i technologiczne z reguły bazują na danych statystycznych krajowych urzędów statystycznych. Dane te z reguły są nierzetelne i wprowadzające w błąd. I tak w danych polskiego GUS produkcja i eksport zachodnich firm w Polsce to jest „Polska produkcja” ! W czasach największych sukcesów mafii VAT Polska statystyka raportowała że Polska rocznie produkuje dziesiątki milionów smartfonów !
Instytucje zachodnie mają bardzo konkretny interes w tym aby zawyżać pozycje krajów zachodu i obniżać pozycje innych firm świata. W rezultacie na przedstawionym dziwnym wykresie najsilniejsze są technologicznie USA gdzie relatywnie produkuje się coraz mniej i mało nowocześnie. Gdyby nie ten fałszywy Image nie było by takiego  szalonego pompowania amerykańskiej giełdy pieniędzmi ze świata.
Jeszcze w 2008 roku instytucje oceniające wiarygodność kredytową dawały najwyższy ranking bankom które były zbankrutowane i niedługo ratowane za pieniądze podatnika. Druga jest Wielka Brytania co już można skwitować śmiechem a Włochy są silniejsze technologicznie od Szwajcarii co należy rozumieć tak że mafia włoska w oszustwach księgowych jest mocniejsza niż Szwajcarzy. I tak dalej.

Od dawna wiadomo że koncerny organizują wokół siebie cały system gospodarczy i to one modernizują gospodarkę jako że  tylko one mają wystarczająco stabilną pozycje i duże środki na długotrwałe badania i prace konstrukcyjne nad nowościami. Na rysunku pokazano jak 14 koncernów motoryzacyjnych świata kontroluje 54 marki samochodowe. Na rysunku nie ma kilku ważnych firm jak Mitsubishi, który był kiedyś najpotężniejszym koncernem świata o ogromnej rozmaitości nowoczesnej produkcji. Finansjalizacja, szczególnie widoczna w koncernach,  zabija odkrycia i innowacje a w ślad za tym rozwój gospodarczy. Polska likwidując po - socjalistyczne koncerny pozbawiła się możliwości realnego rozwoju technologicznego i awansu w świecie do I Ligi graczy.
Powstaje  pytanie jak ma funkcjonować polska fabryka samochodów elektrycznych skoro produkcją samochodów zajmują się w świecie potężne koncerny. Czy może po niegospodarnym wybudowaniu fabryczki samochodzików elektrostatycznych Morawer 105 Lux i Morawer 105 Bosto za 10 mld złotych zostanie ona sprywatyzowana za 5% kosztów budowy albo za 1 złotówkę ?
Elektroniki w samochodach osobowych i użytkowych jest coraz więcej.

Kraje posiadające koncerny mikroelektroniczne miały ogromny repertuar wszelkiej nowoczesnej produkcji.
Obecnie Taiwan produkujący mikroelektronikę na eksport jest historycznym „przemysłowym” wyjątkiem o niewielkim repertuarze produkcji. 
Globalizacja i finasjeryzacja istotnie wpłynęły na kształt światowej gospodarki.
Dział mikroelektroniki Siemensa produkował na potrzeby innych działów Siemensa. Siemens jako wiodący narodowy koncerny elektrotechniczny miał ogromny repertuar produkcji i w mikroelektronikę zaopatrywał całą gospodarkę. Ale w celu zmniejszenia jednostkowych kosztów produkcji drogą powiększania serii produkcyjnej sprzedawał też mikroelektronikę na rynek światowy co z drugiej strony pozwalało konfrontować się z światem i trzymać konkurencyjny, racjonalny poziom cen i nowoczesność. Siemens po zakupie kilku firm mikroelektronicznych wydzielił mikroelektronikę jako koncern Infineon, który połknął m.in. amerykański International Rectifier.
Podobnie  z potężnego Philipsa wydzielono NXP jako koncern mikroelektroniczny. Działy Siemensa i Philipsa w swoich wyrobach stosowały głównie półprzewodniki Philipsa ale gdy odpowiednich nie było także innych firm.   
Z potężnej wielobranżowej Motoroli wydzielono Freescale połączony później z NXP i OnSemi, który z kolei połyka inne mniejsze firmy.
Konsolidacja firm półprzewodnikowych była możliwa bo one ze swoimi wyrobami były już dobrze osadzone na rynku a przy połączeniu stopniowo porzucano starą produkcję na rzecz nowej aby nabywcom nie stworzyć żadnych kłopotów i ich nie stracić. Skonsolidowane firmy miały większe szanse rozwoju ale nic to nie dało i uległy koncernom Tajwanu, Korei, Japonii i teraz Chin. Ale Samsung stara się jak najwięcej swojej produkcji mikroelektroniki  użyć do produkcji wyrobów gotowych. Wszystkie kraje produkujące mikroelektronikę miały rozbudowany cały przemysł produkujący wyroby rynkowe dla klientów. Po ewentualnym przyłączeniu Tajwanu do Chin jego produkcja mikroelektroniczna w dużej części  zostanie zużyta do zaopatrzenia produkcji w chińskich firmach. Produkcja półprzewodników jest piętą achillesową gospodarki Chin. Aby powstrzymać rozwój potężnego koncernu Huawei kasującego konkurencje m.in. z USA, sięgnęły one wprost po zabronione prawem międzynarodowym metody bandyckie w celu odcięcia koncernu od dostawców najnowocześniejszej mikroelektroniki. Chiny na rozwój mikroelektroniki przeznaczają ogromne środki ale efekty tego nie są oszołamiające.   
W czasie japońskiej ofensywy eksportowej praktycznie każdy potężny japoński koncern miał swój dział półprzewodników. Japonia super nowoczesnym i konkurencyjnym eksportem dosłownie niszczyła nowoczesne działy zachodnich gospodarek na co USA nie mogły dłużej pozwolić. Nazywając rzecz po imieniu Japonia odważyła się toczyć wojnę gospodarczą z USA i Europa Zachodnią. Po „załatwieniu” Japonii przez USA najpotężniejszy kiedyś koncern przemysłowy świata Mitsubishi w 2002 spadł już na 11 pozycje w rankingu.
W PRL podobnie jak i w innych krajach bloku wschodniego mikroelektronikę produkowano na własne potrzeby. Po otwarciu rynku produkcja okazałą się głęboko niekonkurencyjna i zakłady CEMI zlikwidowano.
 
W mediach pojawiają się wprowadzające w błąd informacje o tym jak duży udział ma w przodujących „zielonych” Niemczech Zielona Energetyka. W rzeczywistości jej udział w energii we wszystkich nośnikach nie przekracza 15% ale trzeba mieć na względzie to że energia elektryczna jest szlachetna ale z drugiej strony generacja jest gdy wieje wiatr czyli mało skorelowana z potrzebami czyli mało wartościowa.
Zielona generacja elektryczności celem wytworzenia wodoru który zastąpi obecnie zużywaną ropę naftową i gaz ziemny w transporcie i przemyśle petrochemicznym musiałaby być w Niemczech wielokrotnie większa niż obecnie !

W 2020 roku całkowita konsumpcja gazu ziemnego w EU wyniosła 394 mld m3.
Kraje UE zaopatrują się głownie w gaz ziemny z Rosji ( udział oscyluje wokół 50% ), Norwegii, Algierii, Libii oraz TAP. Transadriatic Pipeline czyli TAP to przedłużenie gazociągu TANAP. Transportuje on azerski gaz poprzez  Turcje i Grecje dalej do starej Europy. EU kupuje też transportowany metanowcami płynny gaz LNG z różnych krajów świata. Znacznie droższy niż transportowany rurociągami gaz LNG kupuje się tylko w razie niemożności nabycia potrzebnej ilości gazu rurociągowego. Rekordowo dużo kupiono go w Q2-2020 ale UE chce trwale obniżyć ten poziom poniżej 10%.

Sterowanie rozległym systemem gazociągów i magazynów gazu wcale nie jest proste. Dostawcom gazu zdarzają się awarie. Trzeba też na czas planowych napraw i konserwacji wszelkie  instalacje odstawiać. System gazociągów i magazynów ma wcześniej wypracowane i sprawdzone rożne konfiguracje pracy i różne algorytmy regulacji dla tych konfiguracji. Gazociąg Jamal z Rosji zaopatruje Białoruś, Polskę i Niemcy. Oczekiwanie że po rezygnacji Niemiec – Rosji  z tranzytu gazu  tym gazociągiem, Niemcy będą tłoczyć „pod prąd” gaz ze swojego systemu aby zaopatrzyć Polskę jest chore.   

Metanowce załadowane przez producenta w porcie mogą popłynąć w dowolnym kierunku i gaz LNG ma ceny światowe. Biedniejsze państwa nie kupują drogich towarów. Media 3.09.2021 poinformowały że z powodu dużego wzrostu cen LNG Pakistan i Bangladesz anulowały przetargi zakupowe na LNG. Rynek światowy eliminuje najsłabszych czyli najbiedniejszych.

Z zaprezentowanego wykresy wynikało że rower jest bardzo energooszczędnym środkiem transportu dla człowieka. Rower z silnikiem elektrycznym o mocy maksymalnej 250W zasilany z akumulatora Litowo - Jonowego z pełną mocą po płaskim terenie jedzie z prędkością do 30 Km/h ale rower ma pedały i silny człowiek może jechać szybciej. Najczęściej w praktyce napęd elektryczny wspomaga dbającego o kondycje rowerzystę tylko przy pokonywani wzniesień. Dla zachowania normalnego ciężaru roweru ma on lekką ramę aluminiową i tytanową. Na kierownicy jest niewielki wyświetlacz LCD. Przy ekonomicznej prędkości jazdy elektrycznej ma zasięg do 200 Km.
Popularność roweru zależy od klimatu i zdyscyplinowania kierowców wszystkich samochodów.
Od lat odbywają się zawody samochodów solarnych czyli pokrytych panelami PV dostarczającymi energii do jazdy.
Można by też panel PV skojarzyć z rowerem dalekiego zasięgu dla turystów. PV mógłby też pełnić rolę żagla.... 

Wymieniono już wcześniej systemy jakie może posiadać typowy budynek.
Budynek na terenie aktywnym sejsmicznie musi mieć mocną konstrukcje i system potężnych izolujących wstrząsy amortyzatorów.
Tam gdzie występują ciężkie ulewy, piwnice ( a w tym garaże ) nie mogą mieć okien ( musi być zastosowana wentylacja ) a budynek szczelin.  Podłogi mogą być odrobinę nachylone w stronę korytarza tak aby woda spłynęła nim do pompy uruchamianej ręcznie lub automatycznie. Wejście do budynku po 5 stopniach zewnętrznych schodów ( często widzianych w amerykańskich filmach ) powinno  być na poziomie parteru.
Ponieważ klimat się zmienia i ekstremalnych zjawisk pogodowych przybywa to podtopienia będą coraz częstsze i nowe budynki winny to uwzględniać.   

Jak już pokazano na przykładzie funkcjonowania pamięci Cache procesora Pentium, kongestia czyli walka o zasobu powoduje dramatyczny spadek wydajności ( każdego ) systemu.
Walka o zasoby obywa się we wszelkich systemach. W systemie gospodarczo – społecznym może odbywać się z użyciem korupcji czyli przykładowo przywilejów, znajomości, dojść i łapówki w różnej postaci. W rezultacie za zasób płacą wszyscy a korzystają tylko wybrańcy co jest dowodem niefunkcjonalności rozwiązań i słabizny.
Podany przez GUS udział wydatków na transport w gospodarstwie domowym nie obejmuje kosztów straconego czasu. Dotykamy jednej z wielu koszmarnych  wad wyliczenia PKB. Koszt pracy kierowcy pociągu, autobusu czy tramwaju jest wliczony w koszt biletu i wchodzi w PKB. Ale kierowca prywatnego samochodu stojąc w korkach stoi za „darmo”, z puntu widzenia PKB. Jeśli policzyć tracony w transporcie czas tak jak pracownika w pracy, to koszty transportu rosną niebotycznie. 
Samochód osobowy jest bardzo wygodnym środkiem transportu. Jego atrakcyjność podnosi dobry system dróg a drastycznie obniżają korki na przeciążonych drogach i brak parkingu, gdy samochodów jest za dużo. Bez infrastruktury samochód jest nic nie warty. Oprócz oszczędności czasu, nie moknie się gdy spadnie deszcz i nikt w autobusie nie kichnie w twarz co często kończy się infekcją i zwolnieniem z pracy.
Liczne analizy dowodzą że infrastruktura ma bardzo duży wpływ na wzrost gospodarczy i poziom życia. Obecnie w skali globalnej inwestycje infrastrukturalne w wysokości 1 % światowego PKB mogą przełożyć się na wzrost zatrudnienia na całym świecie do 8 mln osób. Budowa infrastruktury jest jednak bardzo kosztowna. W krajach wschodzących, emerging markets inwestycje w rozbudowę infrastruktury wodno - kanalizacyjnej angażują do 35 nowo zatrudnianych na każdy milion dolarów wydatkowanych środków. W krajach bogatych milion dolarów zainwestowany w nowe szkoły lub szpitale daje 3 dodatkowe miejsca pracy, a  inwestycje w sektorze energii 6 nowych miejsc pracy.
W mieście chcą parkować samochody mieszkańców i ich gości, pracowników firm i urzędów oraz osób korzystających z firm i urzędów. Tam gdzie firmy nie mają pozycji monopolistycznej zmotoryzowany klient nie mając gdzie postawić samochodu rezygnuje z danej firmy wybierając inną z łatwym dostępem.
Pracownicy firm parkując swoje samochody uniemożliwiają skorzystanie z parkingu klientom szkodzą swojej firmie.
N.B. Najbardziej efektywne wykorzystanie miejsca do parkowania daje pokazany, tak zwany Parking  geometryczny
 Samochód zajmuje na drodze dużą powierzchnie i tym większą im szybciej się porusza bowiem wymagane dla bezpieczeństwa odstępy między samochodami szybko rosną z prędkością. Z tego punktu widzenia optymalna jest w mieście szybkość około 50 km/h.  Prawdopodobnie istotną oszczędność społecznego czasu ( zsumowanego czasu wszystkich „transportujących się” )  dałoby zmniejszenie ilości samochodów osobowych gdy część osób przesiądzie się do komunikacji miejskiej. Podróż samochodem osobowym bez korków byłaby znacznie szybsza i tańsza. Opłaty za używanie samochodu osobowego w mieście  przez osoby, które uważają że ich czas jest cenny i wolą zapłacić za używanie infrastruktury miejskiej ( to klasyka kongestii czyli walki o zasoby ) niż go tracić, mogłyby finansować komunikacje publiczną. Paradoksalnie opłata taka mogłaby być mniejsza niż obecny koszt zmarnowanego czasu, spalonego paliwa i zużycia samochodu w korkach. Już dziś mamy namiastkę tego w postaci opłat na „parkingach” ( odcinkach ulic lub z ich przyległością ) w strefach płatnego parkowania. Głupotą jest faktyczne dofinansowanie parkowania   ( i też  jazdy w mieście)  samochodów mieszkańców miast, mieszkających przy „parkingach”. Skandalem są stare, brudne, porzucone samochody bez powietrza w kołach zajmujące miejsce parkowania. Mieszkańcy mogli by za darmo parkować gdyby odcinek ulicy był ich własnością a przecież nie jest. Płacenie za coś co dotychczas było darmowe powiększa statystyczny PKB co jest kolejnym plusem tego rozwiązania!
Społeczeństwo akceptuje fakt że bardzo droga ziemia w miastach stanowi istotną część ceny nowego mieszkania. Na tej samej ziemi leżą miejskie drogi i parkingi ! Wszystko co jest darmowe nie jest szanowane i jest zużywane nieracjonalnie i marnotrawnie co wyzwala kaskady patologii. Oczywiście dotyczy to także miejskiej infrastruktury. Nie chodzi tu bynajmniej o zdzierstwo ale o racjonalne gospodarowanie deficytowym dobrym jakim jest w mieście miejsce do parkowania. W cenie nowego domu nabywcy płacą za miejsce do parkowani na parkingu w cenie mieszkania. 
Obecnie płatne jest korzystanie z autostrad i tak samo powinno być płatne używanie uczęszczanych części miast. Powszechność kamer monitoringu w miastach lub wymóg posiadania przez samochód rejestratora trasy ułatwią automatyczne rozliczanie.  Płatny jest czas od wjechania do strefy do wyjechania z niej.   
W europejskim modelu podatkowym podatki stanowiące ponad 2/3 ceny paliw samochodowych, stanowią podstawowy wpływ do budżetu. Przy przejściu na samochody elektryczne EV potężne podatki trzeba nałożyć na energie elektryczną aby zapełnić budżet po utracie podatku od paliw. Zakup i używanie samochodu elektrycznego będzie kilka razy droższe niż obecnie i będzie ich mniej ale nie ma nad czym drzeć szat jeśli tylko państwo nie będzie skorumpowane i środki trafią do dobrej, bezpłatnej lub taniej komunikacji miejskiej.
Zwróćmy uwagę na rozpaczliwe racjonowanie dystrybucji deficytowej żywności systemem kartkowym przez państwa. Często niepotrzebnie przedłużało to kłopoty gospodarcze i nie mobilizowało podmiotów do zwiększenia produkcji żywności. Gdzie indziej gdzie szybko po wojnie zniesiono kartki i ustabilizowano system, produkcja żywności  szybko rosła bowiem rynek pozwalał dobrze zarabiać sprawnym producentom. Wprowadzenie kartek zaopatrzeniowych jest dla wszystkich sygnałem że są ciężkie problemy. Rząd PRL głupio, niepotrzebnie ( miał inne wyjścia) wprowadził karki na cukier a strajkujący w 1980 roku żądali objęcia reglamentację wielu produktów. Strajkujący nie chcieli mniej socjalizmu ale jeszcze więcej !
 
Problem braku miejsc do parkowania i ulicznych korków trapi populacje miast od dekad.
Biorąc pod uwagą PKB PC Polska ma za dużo samochodów osobowych i wynika to z masowego importu tanich, używanych samochodów z Zachodniej Europy. Przejście Zachodu na mniejszą produkcje drogich samochodów elektrycznych stopniowo automatycznie rozwiąże ten problem i ilość samochodów w Polsce spadnie a drogi się trochę odkorkują. Kupno używanego samochodu elektrycznego ze zużytym bardzo drogim akumulatorem jest nieracjonalne.
Zużycie energii na pasażerokilometr przez tramwaj, autobus i metro jest mniejsze niż przez samochód osobowy ale niestety wcale nie jest małe. Stąd racjonalizacja codziennych podróży ma pierwszoplanowe znaczenie.   
Trudno ocenić czy decyzja światowej oligarchii przejścia na samochody elektryczne nie będzie złagodzona lub odwołana. Polska będąc  członkiem EU w tej mierze nie ma żadnego wyboru i zmuszona będzie ewentualnie porzucić samochody spalinowe tak  jak cała EU.
Warto wcześniej przygotować się na zmiany a nie jak zawsze udawać zaskoczonego.
Gdy w III RP wprowadzano wysokie podatki od paliw samochodowych argumentowano że za nie budowany będzie system dróg co było nieprawda jako że środki służyły do zasypania dziury w systemie emerytur i rent. W gruncie rzeczy część środków powinna jednak trafić do niezmotoryzowanych narażonych na oddychanie pogorszonym powietrzem i na wiele innych zagrożeń  stwarzanych przez samochody.

O tym jak wielka jest niesprawność i korupcja w inwestycjach infrastrukturalnych w Polsce dowodzą przykłady ze świata. Gigantyczne inwestycje z sensownymi kosztami i krótkimi terminami to nie tylko dzieło Chin.
Konsorcjum kierowane przez Siemensa, przy wsparciu rządu niemieckiego, 3.08.2021 podpisało w Egipcie kompleksowy kontrakt za 4.5 mld dolarów na budowę sieci szybkich kolei o długości 1800 km i dostawę wyposażenia.  Pierwsza będzie 660 km trasa od Morza Czerwonego do wybrzeża Morza Śródziemnego gdzie ruch przekroczy 30 mln pasażerów rocznie. Pierwsze pociągi mają zostać dostarczone do końca 2023 roku. Zakończenie całego kontraktu planowane jest na 2027 rok. Konsorcjum stworzy lokalnie ponad 15 tysięcy miejsc pracy. Połowa wartości dodanej ma pochodzić z Niemiec. Pociągi będą budowane w Krefeld, lokomotywy dla ruchu towarowego w Krefeld i Monachium, a technologia sterowania - sygnalizacji pochodzi z Brunszwiku. Według przedstawicieli Siemensa, Egipcjanie kupili najnowocześniejszy sprzęt.

Po drogach EU jeździ 6,2 miliona pojazdów użytkowych średnich i ciężkich w średnim wiek 13 lat. Mniej niż  2300 ciężarówek jest bezemisyjnych czyli elektrycznych a w tym kilka na wodór. Tylko 12 tysięcy jest ciężarówek na LNG. Modele na LNG mają według producentów mniejsze przebiegi międzyprzeglądowe. Brak jest wiarygodnych danych o trwałości silników ciężarówek na LNG. Emisja CO2 przez ciężarówki na LNG jest dużo mniejsza niż przez Diesle. Zwiększenie ilości ciężarówek i autobusów na LNG jest tanim sposobem zmniejszenia emisji CO2 !  Dobrym miejscem do zastosowania LNG są też taksówki o dużym obłożeniu pracą.
Sensory węglowodorów a w tym metanu są tanie, dostępne i wystarczająco dobre aby zdetekować przeciek w instalacji LNG ciężarówki lub autobusu. Redundantny system da absolutną pewność detekcji dla bezpieczeństwa.
 
Wydajność mikrokontrolerów rośnie i stąd od dawna podejmowane są próby ulepszenia algorytmów regulacji.
Tradycyjnie w serwomechanizmach elektrycznych stosowany jest układ kaskadowy z trzema pętlami regulacji: prądową PI, prędkościową PI  i położeniową P. Rozwiązanie to uzupełnione prostymi algorytmami jest sprawdzone i działa dobrze. Maksymalna szybkość pracy mechanizmu ( o ile nie jest ograniczona mocą i momentem maksymalnym napędu ) jest proporcjonalna do pasma przenoszenia serwomechanizmu i stąd chcemy aby pasmo było jak najszersze bo przecież „czas to pieniądz” Pasmo przenoszenia serwomechanizmu i jego sztywność dynamiczną wyznacza przede wszystkim częstotliwość modulacji PWM, rozdzielczość sensora położenia – prędkości oraz częstotliwość rezonansu mechanicznego silnika  z obiektem mechanicznym, która może się zmieniać.
Tradycyjnie dla zwalczenia rezonansu mechanicznego stosowano antyrezonansowy filtr I rzędu czyli inercje. W rozprawie doktorskiej „Speed Acquisition Methods for High-Bandwidth Servo Drives”, Alexander Bähr zbadał metodą symulacji i eksperymentalną zastosowanie różnych filtrów, także skomplikowanych i zaawansowanych oraz obserwatorów.
I tak przykładowo zastosowanie filtrów 2 i 3 rzędu Butterwortha i Czebyszewa zamiast prostego filtru I rzędu czyli inercji tylko pogarsza sprawę i badanie wyższych rzędów filtrów jest nonsensem skoro im wyższy rząd filtru tym gorzej. Najlepszy efekt daje inercja plus filtr środkowozaporowy o paśmie  850-1090 Hz pokrywający istotny z punktu widzenia położenia sensora rezonans mechaniczny. Ale przyrost jakości regulacji – szybkości w stosunku do prostej inercji nie jest duży a  w praktycznych układach częstotliwość rezonansowa może się zmieniać przy zmianie położenia układu mechanicznego z wieloma serwomechanizmami. Rozdzielczości sensora położenia – prędkości nic nie zastąpi. Czy jest sens stosowania do tego zadania sieci neuronowych i algorytmów adaptacyjnych ? Raczej nie. Niemniej temat został starannie zbadany i wiemy ze wiele nie da się osiągnąć. Im więcej jest parametrów do nastawy tym z reguły są one marnie ustawione. Stąd potrzeba samonastrajania lub adaptacji.
Z pustego i Salomon nie naleje. Istotna jest sztywność i wewnętrzne tłumienie drgań w mechanizmie. Wystarczy rzucić okiem na konstrukcje serwo Voice Coil mechanizmu pozycjonującego z głowiczkami w twardym dysku HD aby nabrać pewności że konstruktorzy bardzo dobrze temat znają. Oczywiście wybór materiału ramienia jest doskonały.

Resolwery nadal są używane. Dawniej popularny był interfejs  fazowy gdzie uzwojenia statora resolvera SIN i COS zasilano kwadraturą sinusoidalnych – cosinusoidalnych  napięć i mierzono przesunięcie fazy odbieranego sygnał   z wirnika w stosunku do sygnałów zasilania, adekwatne do położenia wirnika. Od lat stosowany jest system amplitudowy gdzie jednym napięciem sinusoidalnym zasilany jest wirnik a sygnały SIN i COS próbkowane w szczycie sinusoidy są sinusem i cosinusem położenia wirnika. Szczególnie dobre rezultaty daje układ nadążny z obserwatorem ale jest drogi.
Popularne są kwadraturowe impulsowe sensory optyczne z indeksem do pomiaru kąta. Ich ogromną zaletą oprócz niewysokiej ceny jest to że część dedykowanych do systemów serwo 32 bitowych mikrokontrolerów ma interfejs do współpracy  co mocno obniża komplikacje i koszt elektroniki serwomechanizmu. Jednak znacznie lepszą rozdzielczość mają kwadraturowe sensory optyczne z wyjściem analogowym SIN i COS. Idea uzyskania kąta z tych napięć jest identyczna do algorytmu do obsługi resolwera. Sensor optyczny różni się od resolwera tym że sygnały nie mają modulacji amplitudowej i nie ma potrzebny próbkowania ich w szczycie sinusoidy.
Na błędy kąta składają się offsety Ox i Oy zależne od elektroniki resolwera oraz od elektroniki i samego sensora optycznego oraz różne skale Ax i Ay elektroniki oraz elektroniki i sensora optycznego oraz błąd kata Delta występujący w zasadzie tylko w sensorze optycznym
Przy jednostajnym ruchu obrotowym  błędy offsetów powodują quasi sinusoidalny błąd kata z taką samą częstotliwością jak sygnał SIN / COS ! Natomiast błędy skali  dają błąd quasi – sinusoidalny o podwójnej częstotliwości. Teoretycznie więc układ adaptacyjny przy ruchu jednostajnym może te błędy wyeliminować. Można błędy stablicować. W cytowanej pracy zamieszczono schemat adaptacyjnego algorytmu do zmniejszania tych błędów.
Ponieważ cena jednego Gflop-a wydajności mikrokontrolera spada, można się zastanawiać nad stosowaniem przeróżnych algorytmów wymagających ogromnej ilości operacji.

W samochodach autonomicznych lub w systemach wspomagania kierowcy stosowane będą  kamery, LiDAR i radar. LiDAR stosujac impulsy laserowe (obrazowanie światłem, wykrywanie i określanie odległości) może dokładnie identyfikować obiekty, ale jest drogi i zależny od warunków pogodowych. Rośnie więc zapotrzebowanie na radar o wysokiej rozdzielczości. Od lat stosowane są radary militarne, lotnicze i pogodowe o wymaganej rozdzielczości. Są to jednak urządzenia duże i bardzo drogie. W samochodach mogą być stosowane radary pracujące w zakresach  24 -77 GHZ o zasięgu do 150-200 m a z reguły znacznie mniejszym.
Stosunkowo prosty i tani radar z falą ciągłą z modulacją częstotliwości (FMCW) służy do pomiaru odległości, a także kąta i prędkości. Radar FMCW ma duży kąt widzenia i słabą rozdzielczość. Jest dobry w wykrywaniu pobliskich przeszkód jak na przykład jadący z przodu samochód. Ze wzrostem odległości  jest coraz gorzej. Radar taki jest sam mało użyteczny i może w systemie współpracować z kamerą i systemem rozpoznawania obrazów oraz uczenia się.
Trwają prace nad zastosowaniem w samochodach radaru z syntetyczną aperturą (SAR). Na zdjęciu jest obraz z takiego radaru z danym dla porównania obrazem z LIDAR-a. 
Radar FMCW stosowany jest w drogich sensorach poziomu ( ścieki, mazut, mąka, ziarno ...) tam gdzie inne metody całkowicie zawodzą. Współczesna konstrukcja z wydajnym mikrokontrolerem z funkcjami DSP jest względnie prosta. Sygnał z pracującego ciągle CW generatora mikrofalowego ( w dokładniejszym rozwiązaniu z syntezą częstotliwości z pętlą regulacji fazowej PLL) o częstotliwości 10 - 24 - 80 GHz podany jest do kierunkowej anteny. Dawno temu w generatorze stosowano generacyjne diody mikrofalowe ale tranzystory mikrofalowe są już od lat taniutkie. Generator jest piłokształtnie ( z częstotliwością do kilkaset Hz) modulowany częstotliwościowo FM. Cząstka odbitego od substancji w zbiorniku sygnału mikrofalowego wraca do anteny gdzie z sygnałem generatora jest podana do mieszacza mikrofalowego. Oczywiście fizycznie jest tylko jedna antena jednocześnie nadawczo – odbiorcza. W czasach podróżowania fali zmieniła się modulowana częstotliwość, proporcjonalnie do czasu czyli mierzonej odległości. Sygnał o akustycznej różnicy częstotliwości z mieszacza podany jest do filtru - wzmacniacza dolnoprzepustowego. Ponieważ nie ma tylko jednej odległości sygnał jest zakłóconą „sinusoidą”. Sygnał podany jest do przetwornika A/D mikrokontrolera i po filtracji oknem dla usunięcia „przecieku” spectrum poddany transformacji Fouriera algorytmem FFT. Następnie wylicza się moduły prążków zespolonego widma i wybiera największy i dwa sąsiednie. Z nich wylicza się dominującą częstotliwość  czyli po skalowaniu odległość. Wymogi na analogowy filtr dolnoprzepustowy można zmniejszyć i filtr uprościć stosując oversampling i cyfrowy filtr decymacyjny. Ma to sens gdy mikrokontroler ma dość szybki przetwornik A/D i dużą wydajność obliczeniową.
W przypadku układów mikrofalowych wielki wpływ na cenę ma użyta technologia mikrofalowa i skala produkcji.  Dawniej komunikacyjne urządzenia mikrofalowe produkowano co najwyżej w krótkich seriach były okropnie drogie. Przełomem były convertery do telewizji satelitarnej gdzie zastosowano konstrukcje na płytce drukowanej z paskowymi filtrami i tranzystory w Arsenku Galu.
Teraz kolejnym wielkim krokiem naprzód są smartfony 5G.   
Sprawdzenie.
1. Na rysunkach podano wymiary jednosekcyjnego sprzęgacza kwadraturowego typu wstecz, szerokopasmowego sprzęgacza Lange'a i dzielnika mocy Wilkinsona oraz parametry połączeń i płytki.
-Na jakie circa zakresy częstotliwości są te przyrządy ?
2. Które okno wymienione w tabeli lub może inne ( trapezoidalne...) jest najlepsze do radarowego FMCW sensora poziomu ? Sygnał z odbiorczego układu analogowego sensora poziomu o częstotliwości akustycznej dla odległości sensora od ściany pokazuje włączony oscyloskop.

3.Często FFT oblicza się z próbek sygnału rzeczywistego a nie zespolonego. Z sygnału rzeczywistego długości 2N tworzy się sztuczny sygnał zespolony długości N co pozwala oszczędzić na czasie i pamięci przy wyliczaniu FFT.
-Podaj użyte w algorytmie wzory przeliczeń  na wejściu przed FFT i za nią.

4.Stosując algebrę udowodnij ( tekst wyżej ! ) ze błędy spowodowane Offsetem Ox i Oy dają błąd sinusoidalny kąta a skalą Ax, Ay błąd sinusoidalny o podwójnej częstotliwości.

Cwiczenie
1.W konstruowanym radarowym FMCW sensorze poziomu użyto mikrokontrolera prostego systemu uruchomieniowego z rodziny ARM Cortex – M3 pokazanego na schemacie. W skomentowanym, działającym, względnie prostym programie w C wprowadzono jeden elementarny błąd i sensor źle działa.
-Znajdź i popraw ten błąd
-Ulepsz algorytm
-Zaproponuj inny algorytm 

2.W prostym układzie testowym potencjometr PR1 ustala napięcie Ube męczonego cyklami cieplnymi  bipolarnego tranzystora mocy DUT na radiatorze. Gdy temperatura struktury tranzystora ( także lokalnie ) spadnie poniżej ustalonego PR1 poziomu, napięcie Uce zacznie wzrastać z powodu podania rezystorem R1 małego prądu do kolektora co powoduje załączenie górnego źródła prądowego i podanie prądu bazy do DUT który też pracuje jako nastawione źródło prądowe. Prądy obu źródeł są nastawione przez PR2 także że prąd górnego źródła stanowi 110% dolnego i jest ono do czasu przebicia „nasycone”. Struktura DUT zaczyna się nagrzewać i tranzystor wchodzi w drugie przebicie co jest podwójnie momentalnie detekowane ujemnym (!) prądem bazy DUT i spadkiem Uce bowiem zadziała nasycone dotąd górne źródło i się momentalnie wyłączy. Układ działa jako elektrotermiczny generator doprowadzając do II przebicia ale ponieważ prąd kolektora jest momentalnie zdjęty nie jest ono destrukcyjne od razu. Parametry generacji ustala się potencjometrami PR1 i PR2 a oscyloskop DSO rejestruje przebiegi napięć i prądów.
Okazuje się że jakość tranzystorów mocy różnych producentów jest drastycznie różna. Jedne mają duży obszar SOA, absorbują dużą energie impulsu, długo cierpliwie znoszą silne cykle termiczne i wejście w przebicie a inne się szybko uszkadzają.
Co w konstrukcji decyduje o jakości DUT ? 

8 komentarzy: