wtorek, 5 października 2021

Laboratorium zaawansowanej elektroniki i automatyki 36

 Laboratorium zaawansowanej elektroniki i automatyki 36

 Nagrodę Nobla w dziedzinie medycyny i fizjologii przyznano w 2021 roku za "odkrycie receptorów temperatury i dotyku". „Nasza zdolność wyczuwania ciepła, zimna i dotyku jest niezbędna do przetrwania i stanowi podstawę naszej interakcji z otaczającym nas światem. W naszym codziennym życiu przyjmujemy te odczucia za pewnik, ale w jaki sposób inicjowane są impulsy nerwowe, aby można było dostrzec temperaturę i ciśnienie? To pytanie rozwiązali tegoroczni laureaci Nagrody Nobla” - napisał w uzasadnieniu komitet przyznający Nagrodę Nobla.
Może budzić zdziwienie że na to odkrycie ludzkość czekała aż tak długo.

 Postęp technologiczny przynosi ludzkości  ogromne korzyści. Ale koszty badań i poszukiwań są ogromne.
Reaganowski program „Wojen Gwiezdnych”, Star Wars jako go popularnie nazwano, miał według odtajnionych dokumentów, kosztować relatywnie tyle co osiem razy  plan Manhattan, w którym stworzono od podstaw broń jądrową i podwaliny pod cywilną energetykę jądrową. Program  Star Wars zakończył się totalną klapą a na satelitach USA miały być potężne lasery niszczące w kosmosie z dużej odległości rakiety i nuklearne pociski ZSRR.

Wikipedia daje długą listę upadłych lub za drogich programów komputerowych, których nie wdrożono do użytku lub projekty stwarzają problemy ze sfinansowaniem i się nie kończą.
https://en.wikipedia.org/wiki/List_of_failed_and_overbudget_custom_software_projects
Drugi na liście jest konstruowany w latach 1982-1994 program dla amerykańskiej FAA do automatyzacji ruchu lotniczego na który wyrzucono w błoto 3-6 mld dolarów.
W latach 2002-2012 dla rządu brytyjskiego konstruowano program „NHS Connecting for Health” dla zapisywania danych o leczeniu pacjentów. Wyrzucono w błoto 12 mld funtów ale niektóre procedury są nadal rozwijane i koszta może się powiększyć ale jednak jest szansa na ich wdrożenie.
W latach 2005-2012 dla rządu USA – sił powietrznych tworzono program do zarządzania „Expeditionary Combat Support System” za zmarnowane 1.1 mld dolarów.
W Polsce odbyła się walka o ujawnienie tajemniczego algorytmu do „losowego” przydziału spraw sędziom. W końcu ujawniono fragment dokumentacji programu. Niedorzeczny „algorytm”
 losowania sędziów w systemie SLPS daje na przykład pierwszemu sędziemu z listy dwa razy większe szanse na bycie wylosowanym, niż drugiemu. Są też inne cymesy w małpim ”algorytmie”. Systemem można łatwo manipulować i  manipulacja prawdopodobnie są masowe. Józef Stalin powiedział że „nie ważne kto głosuje, ale to kto liczy głosy” Czyli władza III RP nigdy nie zostawia wszystkiego czystemu przypadkowi lub  nieprzewidywalnej woli ludu.

Dnia 4.10.2021 nie działały na całym świecie Facebook, Instagram i WhatsApp. Inne portale miały mniejsze problemy. Poznikały w tabelach systemów DNS rekordy dotyczące tych portali czyniąc je niedostępne !
Do równie poważnej awarii doszło w grudniu 2020 roku. Do dzisiaj nie wiadomo, co było jej przyczyną. Jednak w ciągu sześciu godzin została usunięta. Wówczas awaria Facebooka i Messengera zbiegła się w czasie z dużym wzrostem liczby zgłoszeń dotyczących operatorów telefonii komórkowej w Polsce. Ktoś ingeruje w infrastrukturę komunikacji nie pozwalając się złapać za rękę.
Jeśli Pentagon używa internetu to w razie konfliktu militarnego można na dzień lub dwa zniknąć całą jego domenę / domeny, zaszyfrować miliony plików, ujawnić kompromitujące informacje, zdekonspirować agentów CIA oraz polityczną agenturę USA w świecie itd. 

W Europejskim modelu podatkowym bardzo drogie są paliwa silnikowe. Obłożone są akcyzą, VAT i wieloma przeróżnymi opłatami. W Holandii paliwa kosztują już trwale ponad 2 Euro za litr. Podatkami i opłatami obłożona jest też energia elektryczna. Dochodzą wysokie marze dystrybutorów i koszt zielonej energii przenoszony ( także opłata „mocowa” w rachunku ) na odbiorców indywidualnych.
Najmniej w Europie narażona na ubóstwo energetyczne jest ludność Szwajcarii 0,3 % populacji a następnie Norwegii 1%. Oba te kraje nie należą do Unii. Bułgaria ma najwyższy odsetek osób ubogich energetycznie w Europie  31 %, za nią plasuje się Litwa  28 % , Cypr  21 % i Portugalia 19 %. Energia w Europie staje się towarem luksusowym między innymi przez politykę klimatyczną.

Finansjeryzacja i spekulacja zabijają nowoczesną gospodarkę. Moda na łatwe zarobki na spekulacji i w dystrybucji powoduje zaniedbania po stronie podażowej. Skomplikowana budowa elektrowni czy przygotowania do eksploatacji złoża ropy  lub gazu na morzu trwają i dużo kosztują. Pomysł aby w Europie zezwolić na spekulacje gazem ziemnym i energią był chory i zbrodniczy. Według wyliczeń Oxford Institute For Energy Studies produkcja gazu ziemnego w Europie w pierwszych ośmiu miesiącach 2021 roku była  o 24 % mniejsza niż w tym samym okresie w roku 2019 ( pandemiczny rok 2020 jest nieporównywalny ). To efekt wielu decyzji  o wygaszaniu wydobycia ze starych złóż i  braku inwestycji w nowe. Zamykane są też stare elektrownie węglowe. Ceny na rynku LNG wyznaczają nabywcy z Azji i w 2021 roku import drogiego gazu LNG tankowcami do Europy zmalał o 12%.
Zielona generacja jest chimeryczna. Z powodu małych opadów w Skandynawii poziom wód w zbiornikach hydroelektrowni jest rekordowo niski i mała jest generacja energii.
Wymienione czynniki oraz słaby wiatr i słońce, deszcz, spekulacja... wywołują w Europie kryzys energetyczny. Energia w paliwach i energia elektryczna używane są w każdej produkcji. Bardzo drogi gaz spowodował w Europie wyłączenie dużych zakładów chemicznych a w tym potężnych fabryk koncernu BASF w Niemczech i w Belgii.  Na rynku światowym są już deficyty wielu produktów i do tego dojdą braki krytycznych substancji chemicznych. Są całkiem liczne substancje chemiczne produkowane tylko w dwóch fabrykach na świecie.
Drożejąca energia a przede wszystkim jej brak, oczywiście wywołają stagflacje będącą w gospodarce połączeniem wszystkiego co najgorsze. Do tego doszedł potężny dodruk wielu bilionów dolarów i Euro a nawet walut peryferyjnych jak złotówka.
„Roboty hedgingowe czerpią rekordowe zyski z europejskiego kryzysu energetycznego...
Kilka funduszy hedgingowych wykorzystuje komputerowe algorytmy do obstawiania niszowych lub „egzotycznych” rynków, takich jak holenderski czy brytyjski gaz ziemny lub hiszpański i niemiecki popyt na energię. Rosnące koszty energii przemieniły UE w jednego z największych w ostatnim czasie generatorów pieniędzy. Trzy najsilniejsze fundusze zarejestrowały dwucyfrowe wzrosty przychodów. ”

Kryzys energetyczny lat siedemdziesiątych skutkował wieloma poważnymi zmianami a w tym stagflacją na Zachodzie  ale też modernizacją technologii w kierunku oszczędności energii. Przestarzałe energochłonne technologie sprzedawano między innymi Polsce. Ten epizod w dziejach świata zakończyła wywrotka gospodarki dłużników w świecie a  w tym i Polski pod szyldem PRL. Poziom z 1978 roku osiągnęliśmy po nieomal 20 latach recesji i stagnacji.

 Polska światowemu rynkowi oferuje Tanią Siłę Roboczą. W ogłoszeniach poszukiwani są pracownicy fizyczni. Głownie takie profesje jak betoniarze, zbrojarze, brukarze, cieśle, stolarze budowlani, dekarze, blacharze budowlani, elektrycy, elektromechanicy i elektromonterzy, magazynierzy, mechanicy pojazdów samochodowych, monterzy instalacji budowlanych, murarze, tynkarze, operatorzy i mechanicy sprzętu do robót ziemnych, robotnicy budowlani, robotnicy obróbki drewna, stolarze, spawacze, ślusarze, kierowcy, pracownicy magazynu, pracownicy handlu. Udział kobiet w tych pracach ( poza handlem )  jest marginalny.
Firmy ( w większości zagraniczne ) w Polsce są w Europie drugim po Niemczech eksporterem mebli. W 2018 roku Polska w tym dziale miała najmniejszy średni koszt (płace i ubezpieczenia społeczne) poniesiony na pracownika w Unii Europejskiej bo tylko 11,5 tys. euro na rok co stanowiło ledwie 18,6 % wszystkich kosztów produkcji. Najwyższe koszty zatrudnienia pracownika są w Szwecji, 52,6 tys. euro na rok ( to 29,1 % kosztów) a w drugiej Francji 47,3 tys. euro na rok dając tam 27,8 % całości kosztów. Polski wskaźnik średniej sprzedaży na pracownika jest jednym z najniższych. Inwestycje w Polsce na pracownika wynoszą tylko 1725 euro rocznie i są wśród  najniższych w liczących się w świecie mebli krajów. Polska nie ma własnych marek mebli a ich stworzenie wymaga środków. Nie ma nawet rozpoznawalnego wzornictwa. Tymczasem światowi giganci branży doceniają handel internetowy i w ten sposób sprzedawana jest 1/3 mebli.
Czyli w kraju Bardzo Taniej Siły Roboczej nie warto stosować automatyzacji i robotów.

W szczytowym 2007 roku studiowało w Polsce 1.954 mln studentów ale już w 2020 „tylko” 1.215
mln. Wraz z malejącą liczbą studentów z mapy Polski znikają kolejne szkoły „wyższe” Powodem tego są mniejsze  roczniki ludności i wzrost świadomości tego że ukończenie wielu kierunków „studiów” nic nie daje jeśli nie ma szans na objęcie urzędowej synekury załatwionej przez rodzinę i znajomych.
W PRL dominował pogląd że studiować powinny osoby zdolne i pracowite mające odpowiednie predyspozycje co wykaże egzamin, bo inaczej tytuły zostaną zdegradowane a idea studiów i nauki ośmieszona. W roku 1983/1984 było 274 tysiące wszystkich studentów. Przez 5 wcześniejszych lat ilość studentów malała !
Samochód osobowy jest produktem złożonym. Na zdjęciu pokazano jego podzespoły. Są takie które mają ponad 100 części.

Światową produkcje akumulatorów do samochodów elektrycznych ostro zdominowały firmy z Azji. Na wykresie pokazano kto produkuje i kto kupuje baterie do aut elektrycznych.
Gospodarka wodorowa to na razie jest praktycznie Science Fiction. Trwają dopiero prace i testy nad technologiami wodorowymi. W tej poetyce trzeba traktować rysunek pokazujący rurociągi i magazyny wodorowe w Europie w 2040 roku. Transformacja polskiej gospodarki, jeśli nastąpi, będzie niezwykle kosztowna i Polski na nią absolutnie nie stać. Być może z tego względu pominięto ją na rysunku. Super nowoczesny i drogi przemysł ma być znów wyłączną domeną bogatych i na peryferiach nie będzie budowany.
Trwa obecnie komedia z zapowiedziami budowy w Polsce Małych (jądrowych) Reaktorów Modułowych SMR. To kolejne energetyczne „gruszki na wierzbie” po  Karlinie gdy naiwni uważali że staniemy się Kuwejtem i po hecy z gazem łupkowym, który miał wzbogacić kraj. Dotychczas  jedyny pracujący SMR ma ... Rosja

 Patent to ograniczone w czasie prawo właściciela rozwiązania technicznego do wyłącznego korzystania z wynalazku  będącego przedmiotem udzielonego w kraju lub grupie krajów patentu. Według  Międzynarodowej konwencji o ochronie własności przemysłowej, zatwierdzonej w 1883 w Paryżu przez przedstawicieli 11 państw założycielskich  każdy, kto dokonał prawidłowego zgłoszenia wynalazku w jednym z państw konwencji, otrzymuje 12 miesięcy na zgłoszenie tego samego wynalazku w innym państwie konwencji z prawem przywołania daty pierwszeństwa z pierwszego prawidłowego zgłoszenia.
Yamazaki Shumpei to japoński inżynier - wynalazca specjalizujący się w informatyce oraz fizyce ciała stałego mający w 2021 roku łącznie 12 764 patentów.
Oszacowanie wartości rynkowej wynalazku i prawdopodobieństwa uzyskania patentów nie jest sprawą prostą.  W większości wypadków patenty mają utrudnić życie konkurencji. Wiele odkryć nie jest zgłaszanych i patentowanych ale są one realnie skutecznie chronione przed naśladownictwem.
Portal www.freepatentsonline.com  ma wyszukiwarkę i zamiast wyważać otwarte drzwi z futryną można inspirować się cudzymi wynalazkami lub zorientować się w jakim kierunku idą w świecie rozwiązania.  Słowo „Samsung” na tym portalu występuje w 381 425 dokumentach.
Wiele patentów nie wnosi zupełnie nic nowego do sprawy i ich udzielenie rodzi podejrzenie korupcji urzędów. Rodzimych firm polskich w światowych patentach prawie nie widać. 

Archiwum 1985: „Beton znany był już w starożytności. Ukończony w 128 roku rzymski Pantheon ma największą niezbrojoną betonową kopułę do dziś.
Cement jest produkowany z surowców dostępnych lokalnie i m.in. stąd tak różnorodność cementów w świecie. W Polsce surowcami do produkcji klinkieru są kamień wapienny, glina i kreda. Wiertnica na podwoziu ciężarówki w twardych złożach wierci pionowe otwory do których wlewa się gęsty, gęsto - płynny materiał wybuchowy lub wkłada materiał stały oraz detonator. Po eksplozji potężna wyspecjalizowana koparka bierze skruszony surowiec ze złoża.
Taśmociągami i wielkimi ciężarówkami wydobyte surowce transportuje się do kilku kilometrów a linią kolejową do 100 km.
Przetransportowany surowiec w cementowni kruszy się i miesza w celu homogenizacji a następnie mieli. W dominującej już, nowoczesnej metodzie suchej mieszankę podaje się do wymiennika ciepła gdzie jest grzana spalinami z obrotowego pieca i dalej do pieca. W dawniejszej metodzie mokrej z mieszanki robiono szlam i po wysuszeniu podawano do pieca. Jej zaleta była łatwiejsza kontrola składu. Otrzymany w obu metodach klinkier jest identycznej jakości ale metoda mokra potrzebuje o wiele więcej paliwa. Zużycie paliwa wynosi 3.6-7 MJ/kg klinkieru. Rurowy piec klinkierowy o nachyleniu 3-4 stopni ma średnice 2.5-3.5 m. Piec do metody mokrej ( 80-150m )  jest dużo dłuższy niż do metody suchej mający 30-60 metrów długości.
Materiał skutkiem nachylenia i obracania przechodzi przez strefy suszenia, podgrzewania, kalcynacji i spiekania gdzie temperatura osiąga 1450 C. Paliwem najczęściej jest pył węglowy, wdmuchiwany palnikiem z powietrzem. Stosowany jest też zmielony koks naftowy ale także mazut i gaz ziemny oraz palne odpady jak zmielone opony. Spaliny z pieca muszą być starannie odfiltrowane z pyłu. Rozżarzony klinkier chłodzony jest do ca 100 C w chłodniku i kierowany na skład skąd po zmieszaniu z dodatkami jest mielony i podany do silosów. Zawsze dodawany jest gips w około 5%, a także granulowany żużel wielkopiecowy powstający po zalaniu woda żarzącego się płynnego żużla z pieca i lotne pyły z elektrofiltrów elektrowni węglowych.
Cement z silosów luzem ładowany jest na dedykowane wagony kolejowe i na specjalne ciężarówki. Droższy jest cement zapakowany w worki na paletach ładowany sztaplarką na ciężarówkę.   

Beton uzyskuje się z mieszanki cementu, piasku, kruszywa i wody.  Kruszywa łamane do wytrzymałych betonów powstają  z łamania granitu i bazaltu. Gorsze są z wapienia i dolomitu. Kruszywo powinno przypominać sześcian bowiem pod wydłużonymi kamieniami ułożonymi w betonie poziomo zbiera się woda co jest bardzo niekorzystne. Maksymalny wymiar kruszywa nie powinien przekraczać 3/4 odległości między prętami zbrojenia i 1/3 najmniejszego wymiaru poprzecznego. Z reguły przyjmuje się że maksymalny wymiar kruszywa nie powinien być większy od 63 mm ale spotyka się opinie że granicą jest 150 mm. Mieszanka kruszywa, żwiru i piasku powinna mieć wszystkie frakcje wymiarowe i stosowne normy regulują tą sprawę. Bardzo niekorzystne są pyłki oblepiające ziarna piasku i żwiru jako że chłoną wodę. Źle na wytrzymałość betonu wpływają zanieczyszczenia organiczne czyli kwasy humusowe z gleby. Woda nie może zawierać zanieczyszczeń organicznych, chlorkowych i siarczkowych. Czas mieszania w betoniarce betonów płynnych wynosi conajmniej minute a wilgotnych powyżej 3 minut.  Lepszej jakości betony otrzymuje się poprzez wstępne zmieszanie cementu z wodą w proporcjach wagowych typowo 1:0.5 a otrzymaną jednorodną pastę dopiero miesza się z resztą składników. W USA beton wytwarzany w betoniarni  ciężarówkami z obracanymi gruszkami transportowano już w latach trzydziestych. W I świecie produkowane są wysokiej jakości cementy i betony a w III Świecie jakość obu jest znacznie niższa.
Przy stałej proporcji wagowej cementu do wody 1:0.5 kolejno w przykładowych betonach wilgotnym, gęstoplastycznym, plastycznym, półciekłym i ciekłym, cementu i wody jest krańcowo więcej o 45% a mniej jest kolejno piasku a ilość kruszywa zmienia się w tych betonach niewiele i nie monotonicznie.
Beton wilgotny musi być dobrze wibrowany i prasowany a ... betonowi ciekłemu wystarczy tylko ręczne sztychowanie stalowymi prętami, głównie dla usunięcia pęcherzy powietrza.
Nadmiar wody jest zawsze niekorzystny i pogarsza wszystkie parametry betonu. Toteż proporcje wagowe muszą być przestrzegane.
Podczas egzotermicznej reakcji wiązania betonu tworzy się hydrat krzemianu wapnia C-S-H. 90% ostatecznej wytrzymałości beton osiąga w ciągu czterech tygodni, a pozostałe 10% osiąga przez 3 kolejne lata  a potem czasem jeszcze trochę wzmacnia się nawet dziesiątki lat.
Dla dobrego wiązania dającego wytrzymały i nieprzepuszczalny beton powierzchnia wiążącego się betonu musi być wilgotna. Po spryskaniu „mgłą” powierzchnie betonu można pokryć "związkiem pielęgnacyjnym" składającym się z wosku lub podobnych związków hydrofobowych. Powstała "folia" jest "zeszlifowana" w czasie normalnego użytkowania. Powierzchnia może być zraszana. Wiatr i temperatura przyśpieszają  niedopuszczalne odparowanie wody z powierzchni.  Powierzchnia dobrego, związanego betonu musi być gładka bez żadnych rys i szczelin. 

Groźne  dla betonu są korozje siarczanowa i chlorkowa. Przekształcenie wodorotlenku wapnia w betonie w węglan wapnia w wyniku powolnego pochłaniania szczelinkami dekadami atmosferycznego CO2 czyli karbonizacji obniża  pH betonu i  w końcu powoduje korozję prętów zbrojeniowych i pękanie rozsadzanego przez powstająca rdzę betonu. Stąd czasem konieczne jest oprócz dodatków mineralnych użycie odpowiednich dodatków uplastyczniających i uszczelniający w ilości 0.2-3% ilości cementu.  

Beton używany jest szeroko od dekad we wszystkich konstrukcjach infrastrukturalnych i wszelkim budownictwie.
Budowano z niego bunkry i zapory o różnym przeznaczeniu. Niemiecka linia obronna Zygfryda o długości circa 600 km na granicy Francji i Luksemburga stworzyła duże problemy atakującym od września  1944 roku wojskom amerykańskim, brytyjskim, kanadyjskim i francuskim. Ostatecznie linie tą ominięto dopiero na początku 1945 roku. Nie jest znany ani jeden przypadek przejechania przez alianckie czołgi potężnych betonowych "klocków" z fundamentem na linii.

Rocznik Statystyczny GUS w dziele Przegląd Międzynarodowy podaje produkcje w latach 1970 / 1983 cementu ( nieokreślonej jakości i rodzaju ) w państwach świata. Produkcja ta w krajach wysoko rozwiniętych, gdzie prawie "wszystko" jest już zbudowane i skala budownictwa zmniejszyła się, spadła,  natomiast w krajach rozwijających się nadal rośnie. W Polsce w okresie 1970-1983 produkcja cementu wzrosła niewiele i jest na osobę znacznie mniejsza niż w NRD, Czechosłowacji a nawet Rumunii.
Stan mieszkalnictwa w międzywojennej Polsce był bardzo zły na tle standardów Zachodniej Europy i praktycznie w ogóle się nie poprawiał. Skutkiem zniszczeń w czasie II Wojny stan powojennego mieszkalnictwa był rozpaczliwie zły. Od 1978 roku ilość oddawanych mieszkań niestety mocno spadła. Na Zachodzie przypada mniej osób na mieszkanie które jest większe i ma lepszy standard.
Przez conajmniej  30-40 lat nie dorównamy Zachodowi w tej mierze. 

W III Świecie na budowach z użyciem betonu używa się technologi prymitywnych zaś w I Świecie na przykład do budowy wysokościowców z żelbetonu używane są zmechanizowane przesuwane stalowe szalunki - obudowy. Przyszłość prawdopodobnie należy do wieżowców żelbetowych a nie stalowych.

Wiązanie betonu w konstrukcjach masywnych powoduje znaczne podwyższenie temperatury w środku masywu, przyśpieszenie wiązania i skurcz, pojawienie się gradientu temperatur a w konsekwencji niedopuszczalnych naprężeń i rys, które radykalnie obniżają jakość budowli i jej trwałość.
Znając skład betonu ( w tym przewodność cieplną jego składników) i ilość generowanego ciepła można metodą elementów skończonych FEM określić pole temperatur i wilgotności w masywie. Ponieważ wydajne komputery nie są jeszcze powszechne sporządzono wiele wzorów pozwalających ocenić temperatury i naprężenia.
Podawane w publikacjach wzory dotyczące zapobieżeniu zarysowaniom masywnych płyt fundamentów i masywnych ścian są względnie proste i dają zbieżne wyniki co sprawdzono na przykładach na komputerku Spectrum. Upowszechniony programik ze wzorami byłby użyteczny dla inżynierów od masywnych betonów.

Im więcej jest cementu w betonie tym większa jest generacja ciepła.
Im więcej jest dodatków mineralnych w cemencie tym mniejsza jest generacja ciepła.
Także niektóre dodatki chemiczne spowalniają wiązanie i obniżają przyrost temperatury. Schłodzenie betonu przed położeniem korzystnie obniża początkową i maksymalną temperaturę oraz gradient.
Nadmiar wody w betonie  i z tego względu jest niekorzystny.
Korzystny jest wybór odpowiedniej pogody. Betonowanie etapami obniża temperaturę i gradient ale stwarza inne ryzyka.    
Konieczne może się w przypadkach masywów okazać zastosowanie kosztownego  wewnętrznego chłodzenia.

Znaczenie betonu w światowej gospodarce jest ogromne. Ameryka ma ACI = American Concrete Institute założony w 1905 roku  wydający cenne publikacje z prac badawczych. Stowarzyszenie już do 1912 roku adoptowało 14 standardów i wypuściło swój miesięcznik. Podobne instytucje ma Japonia, Niemcy i inne cywilizowane kraje. Bez specjalistycznej wiedzy, przyrządów i doświadczenia nie da się wybudować  potężnej kopuły ochronnej nad reaktorem jądrowym elektrowni o dużej wytrzymałości czy żelbetowego mostu, który wytrzyma 100 lat i bardzo trwałej autostrady czy nawet szybkiej drogi.
Całkiem trwałe okazały się betonowe autostrady budowane przez III Rzeszę mimo iż można je było wybudować o wiele lepiej. Nie ma nowoczesnej gospodarki bez nowoczesnej infrastruktury komunikacyjnej i wszelkich innych systemów infrastrukturalnych. Polska sieć autostrad dopiero musi budować.  
Jest coś w Chińskim powiedzeniu „Yao xiang fu, xian xiu lu” znaczącym  „Chcąc być bogatym, zacznij od budowy drogi”
Wytrzymałość betonu bada się niszcząco uszkadzając sześcian z betonu prasą o dużym nacisku.
Konstrukcje betonową można diagnozować ultradźwiękami. Około - betonowych zastosowań elektroniki i komputerków jest cała masa. W Polsce jest bardzo dużo do zbudowania a w budownictwie od 1978 roku rozwija się kryzys przybierający formę zapaści.

Według czarnorynkowego kursu walut wymienialnych ( to jest jedyny kurs dla obywatela i w dodatku nielegalny )  wynagrodzenia w Polsce wynoszą około 15-20 dolarów. Kurs czarnorynkowy jest wielokrotnie, nonsensownie  zawyżony. W najlepszym 1978 roku dochód narodowy na osobę w Polsce sięgnął prawdopodobnie 45% takowego Niemiec Zachodnich.
Nie ma więc żadnego sensu automatyzacja sprzętem zakupionym na Zachodzi gdy robot przemysłowy o dużym udźwigu kosztuje 200 tysięcy dolarów. Z kolei oferta produkcyjna mikroelektroniki z CEMI jest żenująco uboga.
Izolacja polskiej gospodarki od rynku światowego jest bardzo szkodliwa. Złotówka stopniowo w ciągu 3-5 lat powinna stać się wymienialna, początkowo w bardzo wąskim zakresie ale stale poszerzanym. Normalny pieniądz bardzo pomoże polskiej gospodarce !  

Mającą oszczędzać nakład  pracy żelbetową technologie wielkopłytową na Zachodzie stopniowo wdrażano po 1924 roku i porzucono po 1970 roku. W Polsce zastosowano 10 odmian technologii wielkopłytowej. Przykładowo wyposażenie do budowanych od 1969 roku „fabryk domów” systemu szczecińskiego ( najcięższy ze wszystkich ! ) zakupiono w ZSRR. Ale drogo wyposażenie do fabryk domów kupowano też za kredyty gierkowskie. W części fabryki ten miały już elektroniczny system naważania – kontroli składu produkowanego betonu.  Technologia wielkopłytowa  jest wrażliwa na jakość pracy robotników w fabrykach domów co jest jej piętą achillesową. Braki produkcyjne utrudniały i spowalniały montaż na budowie. Zła jest monotonia zabudowy wielkopłytowej osiedli. Mieszkania są zimne i już próbuje się je ocieplać warstwą styropianu i wełny mineralnej. Transport płyt specjalnymi ciężarówkami ( 30 ton ) jest drogi a takich ciężarówek Polska nie produkuje. Uszkadzane są przez nie drogi nie przystosowane do tak dużego nacisku. Żuraw na budowie do wielkich płyt musi mieć duży udźwig co negatywnie rzutuje na koszta. Naturalne zużycie maszyn przy braku części zamiennych ( brak dewiz na zakupy ) w sposób naturalny uśmiercą technologie wielkopłytową. Konkurencyjna jest budowa domów mieszkalnych z bloków z pianobetonu  lub ceramicznych bloków – pustaków. Po ociepleniu (w czasie budowy) wełną mineralną lub styropianem i zastosowaniu dobrej stolarki otrzymuje się naprawdę cieple domy. 
Wytrzymały żelbeton doskonale nadaje się do budowy wysokościowców ( 100-200 m i więcej) i takowe w tylko największych Polskich miastach mają racje bytu.
Ułatwieniem na dużych budowach są pompy do betonu. Cały czas przy pompowaniu betonu rośnie maksymalna wysokość i dystans pompowania. Konstruktorzy na pewno nie powiedzieli ostatniego słowa w tej materii. Cały czas w cywilizowanym świecie polepszana jest organizacja betonowania i jego techniczne wyposażenie.

Wyposażenie polskich cementowni pochodzi z ZSRR a z ubiegłej dekady także z zachodnich firm. Stosowano do technologii mokrej m.in. piece duńskiej  firmy, która już przeszła na technologie suchą. Potrzebna jest gruntowna modernizacja cementowni - Zamiana przestarzałej technologii  mokrej na suchą. Stosunkowo łatwa jest automatyzacja workowania i paletyzowania.
W gruncie rzeczy trzeba prawie zbudować nowe cementownie. O ile piece klinkierowe zużywają nieszlachetną energie cieplną  w podanym paliwie to młyn mielący klinkier z dodatkami zużywa dużo szlachetnej energii elektrycznej. Optymalizacja budowy młynów także poczyniła postępy. Optymalizacji podlega średnica i długość walca młyna oraz szybkość obrotowa, kształt jego wewnętrznych ścian czyli wykładających klocków wykonanych z twardego materiału oraz średnicy twardych kul.   

Użycie w masywnej konstrukcji betonu który w okolicznościach spowoduje zarysowania, prowadzi do potężnych szkód materialnych .  Stąd specjaliści stworzyli metodę „adiabatycznego” badania próbek betonu  czyli bez wymiany ciepła z otoczeniem taką jak w nieskończonym masywie betonu.
Metodę można rozbudować stosując mniejsza temperaturę otoczenia próbki betonu symulującą przewodność cieplną masywnej konstrukcji.

Elektronika urządzenia do badań adiabatycznych betonu.
W pojemniku z ogrzewanym płaszczem wodnym umieszczona ma być próbka badanego betonu a w niej umieszczony jest sensor temperatury PT100. Druga PT100 jest umieszczona w płaszczu wodnym pojemnika. Sterowany fazowo triak podaje napięcie / moc  do grzejnika elektrycznego umieszczonego w płaszczu wodnym. Regulator PI kontroluje temperaturę płaszcza tak by była identyczna jak wiążącej się egzotermicznie próbki betonu.
Regulacja musi być dokładna bowiem zaniżona lub zawyżona temperatura płaszcza zaburza wyniki eksperymentu. Im badana próbka jest mniejsza tym wyższa musi być dokładność regulacji.
Prądy obu PT100 podają ze stabilizowanego przez MAA723 napięcia zasilania rezystory o małej tolerancji. Przyłączono do nich obu (suwak do zasilania ) cermetowy wieloobrotowy potencjometr montażowy dla ewentualnego pokrycia różnić sensorów PT100 (maksymalnie do circa 0.5 C) ale zbadane cyfrowym multimetrem sensory PT100 są wysokiej jakości.
Trzecia gałąź daje sygnał odniesienia ekwiwalentny temperaturze 0C. Ponieważ nie wiadomo było jakie mają być złącza do DVM i rejestratora sygnały brane są z zewnętrznego złącza do zewnętrznych przełączników konfiguracyjnych. DVM i rejestrator mogą dostać sygnał temperatury z jednego lub z drugiego sensora lub ich różnice. Rezystory zasilające dobrano tak aby czułość PT100 wynosiła 1 mV/C przy temperaturze 30C co jest bardzo praktyczne. DVM i rejestrator mają na użytym zakresie niezakłócające wysokoimpedancyjne wejścia różnicowe i ich ochronne GND połączone jest z GND przyrządu. Zasilanie PT100 rezystorami daje błąd nieliniowości pomiaru oporności i dlatego sporządzono tabelkę z małymi poprawkami. Usuniecie drogiej PT100 ze związanego betonu jest kłopotliwe i może prowadzić do jej uszkodzenia. Alternatywnie można po zmianie elementów zastosować jako sensory wybrane (identyczne co do Ube ) tranzystory w obudowach TO92 w ochronnych rurkach w połączeniu diodowym. Ponieważ tranzystory są tanie strata takiego sensora nie jest istotna. Potencjometr równoważący w takim rozwiązaniu musi mieć większy zakres regulacji aby pokryć rozrzut sensorów
Z uwagi na znaczny przekrój, krótkość i i identyczność przewodów sensorów zastosowano pomiarowy układ 2 przewodowy. Zastosowano wzmacniacz instrumentalny wykonany na jednym wzmacniaczu operacyjnym. Oprócz zminimalizowanych (!) w układzie  wad ma on największą dokładność z danym wzmacniaczem operacyjnym. Układ scalony wzmacniacza musi mieć wyzerowane napięcie niezrównoważenie. W części układów scalonych zrównoważenie napięcia wejścia powoduje wzrost dryftu termicznego i dlatego zastosowano przetestowany układ scalony w którym równoważenie zawsze powoduje spadek dryftu termicznego. We wszystkich  układach MAA725 (=uA725 ) równoważenie zawsze (!) zmniejsza dryft do bardzo małego poziomu rzędu 0.5uV/C, który z uwagi na szumy trudno jest ocenić.  Generalnie mogą to być dostępne układy  MAA502 lub precyzyjny MAA725 Tesla lub LM301, 308, 741 lub ich odpowiedniki.
Szczególnie duże jest niezrównoważenie napięcia wejściowego wzmacniaczy w technologii JFet. Dokładne układy mają specjalną konstrukcje układowa i laserowy trimming dwóch rezystorów struktury monolitycznej  prowadzony specjalnym algorytmem,  pozwala jednocześnie  wyzerować niezrównoważenie i dryfy. Schemat wzmacniacza jest skomplikowany a laserowy trimming jest drogi i finalnie wzmacniacz jest bardzo drogi. Toteż algorytm selekcji typowych, obudowanych wzmacniaczy na takie których wyzerowanie zewnętrznym rezystorem o wyznaczonej wartości  jednocześnie zmniejsza dryft może warta jest opatentowania ?       
Ponieważ tłumienie sygnału wspólnego CMRR wzmacniacza instrumentalnego proporcjonalnie rośnie z jego wzmocnieniem musi być ono jak największe ale regulowane aby dobrać optymalną odpowiedź dynamiczną pętli regulacji. Typowe podanie z potencjometru regulacji wzmocnienia  części sygnału wyjściowego do rezystora ujemnego sprzężenia powoduje rozrównoważenie układu rezystorów IA ( zmienia się oporność potencjometru w funkcji położenia jego suwaka ) i zły spadek CMRR, to zastosowano nowe ( w literaturze go nie ma, do opatentowania ) rozwiązanie nie pogarszające tłumienia CMRR.
Równoległe do rezystorów kondensatory tworzą filtr dolnoprzepustowy. Układ bez zarzutu pracuje ze zwykłymi tanimi przewodami nieekranowanymi.
Zastosowano nowy ( do opatentowania )  i bardzo prosty realizacyjnie „algorytm” zapanowania nad całkowaniem nasyconego regulatora. Daje on stopień swobody który można użyć do optymalizacji odpowiedzi pętli regulacji. I tak przy zadaniu ( nie śledzeniu z drugiej PT100  ) temperatury wody w czajniku do 90 C można ją szybko ( grzanie z pełna mocą) podgrzać w pobliże  temperatury zadanej i następnie regulator PI gładko przechodzi do liniowej regulacji. Można stopień swobody wybrać mniejszy do zapanowania przy za dużym wzmocnieniu P nad przeregulowaniem. Na tle regulatora ARC-21 z dodanymi kondycjonerami do sensorów PT100 układ ma niesamowicie wysoką dokładność statyczną !
Początkowo planowano sterowanie grupowe triaka grzałki ale rzekomo przeprowadzone doświadczenia z  podobnym sterowaniem w fabrycznych regulatorach z załączaniem grzałki stycznikiem totalnie dyskwalifikują takie rozwiązanie i przykro doświadczony zleceniodawca nie chciał nawet o nim słyszeć. Musi dla takich ostrych wymogów być użyta regulacja ciągła.
Kondensator 0.94 uF ( 2 x 0.47 uF) dołączony do sieci zasilającej wystarczająco tłumi zakłócenia od regulacji fazowej. Dostępny dławik brzęczy i się mocno nagrzewa co go dyskwalifikuje. Rzuca się w oczy brak typowych dławików do tego celu. Uniwersalny sterownik fazowy opisano osobno.”

Sprawdzenie
Na błąd (liniowego) pomiar składa się offset czyli błąd Zera i błąd Skali. Błąd konkretnego pomiaru jest szkodliwy a sprawa udziału błędu Zera i Skali w tej szkodzie nie jest trywialna. Im mniejsza jest akurat mierzona wielkość tym bardziej widoczny jest błąd Zera. Pomiar z sensora może być użyty przez system kontrolny lub służyć do informacji dla personelu. Cały system może mieć systemowy algorytm zmniejszający szkodliwość błędów.
Przykładowo we wsadowym  systemie naważania odmierza się substancje w kolejności rosnącej ich wagi. Przy braku błędu Zera nie pojawi się błąd składu mieszanki a tylko błąd jej ilości, który często ma niewielkie znaczenie jako że dalej system produkcji może być już ciągły.
Jasne jest ze histogramy próbek pomiarów mogą być przeróżne.
Daj wiele przykładów pomiarów różnych wielkości w produkcji i funkcje oceny  szkodliwości błędów Zera i Skali w niej.

Cwiczenie
1.Rezystancyjne sensory temperatury RTD PT100 ( mniej popularne są inne wartości rezystancji podane w nazwie  ( podane przy temperaturze 0 C ) i inne materiały aktywne  ) nadal są podstawowym sensorem w przemyśle. Są dokładne i stabilne. Zwykle powyżej temperatury circa 400-500 C stosowane są już termopary. Rezystancja platynowego RTD jest trochę nieliniowa w funkcji mierzonej temperatury. Publikowane są tabele z wartościami rezystancji dla szeregu temperatur i można za tych danych przeprowadzić linearyzacji. Przyjmuje się że liniowa czułość alfa=0.00385 ( Uwaga – W Japonii jest inaczej i jest to 0.00392 ).
„International Temperature Scale ITS-90” stosuje 16 temperatur odniesienia  z zakresu 13.8033 do 1357.77K  Są to dobrze znane i powtarzalne temperatury dla zmian stanów materii.
Equilibrium state    T90 (K)    t90 (C)      
Triple point of hydrogen    13.8033    −259.3467      
Boiling point of hydrogen at a pressure of 33,321.3Pa    17.035    −256.115      
Boiling point of hydrogen at a pressure of 101,292 Pa    20.27    −252.88      
Triple point of neon    24.5561    −248.5939      
Triple point of oxygen    54.3584    −218.7916      
Triple point of argon    83.8058    −189.3442      
Triple point of mercury    234.3156    −38.8344      
Triple point of water    273.16    0.01      
Melting point of gallium    302.9146    29.7646      
Freezing point of indium    429.7485    156.5985      
Freezing point of tin    505.078    231.928      
Freezing point of zinc    692.677    419.527      
Freezing point of aluminum    933.473    660.323      
Freezing point of silver    1234.93    961.78      
Freezing point of gold    1337.33    1064.18      
Freezing point of copper    1357.77    1084.62    
Ponieważ w układzie dwuprzewodowym pomiar z PT100 jest zakłócony przez oporność przewodów stosowano układy 3 i 4 przewodowe. Od dekady produkowane są w technologii CMOS układy zawierające źródła prądowe do zasilania sensora, Instrumental Amplifier o zmienianym programowo wzmocnieniu i dokładny ADC Sigma Delta. Nieliniowość sensora PT100 można zmniejszyć tylko programowo. Ich wadą jest nieodporność na silne zakłócenia, które są w przemyśle normą  i trudność ochrony wejść no i czasem spora cena. Gdy warunki pracy są dobre są one godne polecenia.
Dokładniejszy jest układ w którym PT100 jest zasilana rezystorem ze stabilnego napięcia ale rezystor ten wprowadza nieliniowość pomiaru.
Sensor  PT100 w systemie pomiarowym -50...150C +/-0.005 C w układzie czteroprzewodowy zasilany jest rezystorem R2 napięciem 10V ze stabilnego ( najlepsza grupa  ma dryft napięcia 2 ppm/c) stabilizatora  LT1236. Nowoczesny układ scalony nie bazuje na układzie Band Gap ale na  zagrzebanej diodzie Zenera jak w starym ale dobrym układzie uA723. Za regulowane przez R12 w granicy ca 4% wzmocnienie odpowiadają głównie R3 i Rf. Linearyzacje samej PT100 oraz linearyzacje efektu zasilana rezystorem ( a nie źródłem prądowym) wprowadza dodatnie sprzężenie zwrotne z R10 regulowane przez R14. 
Skalując system przy temperaturze OC przez R9 a następnie przy 100C / R12 i na koniec przy 50C / R14 regulacje są prawie niezależne i nie trzeba ich powtarzać. Przykładowo rezystor R11 zapewnia rozprzężenie dwóch regulacji. 
-Do czego służą rezystory R5 i R6 ?
-Podaj równomiernie falistą linearyzacje - aproksymacje kwadratową sensora PT100 dla zakresu -50...150 C czyli zasiloną ze źródła prądowego. Sporządź wykres błędu. Czy żądanie aby błędy aproksymacji – linearyzacji były zerowe przy temperaturach 0-50-100 C są sensowne ?
-Jak najprościej zaprogramuje tą linearyzacje w zmiennym i stałym przecinku z kodowaniem U2. Wynik z ADC w słowie 32 bitowym  jest 24 bitowy (ENOB jest znacznie mniejsza).
-Podaj równomiernie falistą linearyzacje kwadratową PT100 zasilaną przez rezystor 5 KOhm dla zakresu -50...150 C. Linearyzacja jednocześnie pokrywa nieliniowość sensora  PT100 i nieliniowy pomiar oporności przy zasilaniu rezystorem.
-Podaj równomiernie falistą linearyzacje kwadratową PT100 zasilaną przez rezystor 5 KOhm dla zakresu -50...250 C. Jaki jest maksymalny błąd tej linearyzacji ?
 
2.Algorytm Bresenhama ma prostą i bardzo wydajną implementacje do „rysowania” odcinków, kół, elips i kwadratowych krzywych Bezier. Używany jest w grafice, maszynach CNC i robotach. Krzywe Bezier są pospolite w programach CAD. W programie w C rysującym te krzywe usunięto treść funkcji void plotEllipseRect(int x0, int y0, int x1, int y1), gdzie x0 i y0 oraz x1 i x1 to współrzędne narożników ( dolny-lewy, górny-prawy) minimalnego prostokąta zawierającego elipsę. 
-Wpisz ( znając algorytm i wzorując się na pozostałych ) treść funkcji elipsy

3.Masowe zastosowanie silników krokowych w napędach precyzyjnych, zwłaszcza w twardych dyskach do pozycjonowania głowic, skłoniło producentów mikroelektroniki do wyprodukowania po 1985 roku scalonych mostków mocy do dokładnego sterowania silników krokowych z układem modulatora PWM. Osobnym układem był dedykowany 7-8 bitowy przetwornik D/A któremu procesor co stały okres podawał zadane kwadratury  Sin i Cos prądów silnika krokowego.  Procesor miał odpowiedni program optymalnego czasowo serwomechnizmu. Ta ugruntowana idea sterowania mająca podstawę w DSP jest dalej podstawą sterowania wszelkich silników AC
http://matusiakj.blogspot.com/2019/06/step-motor-system.html
Rozwiązanie to zostało w HD wyparte przez Voice Coil stosowaną od bardzo dawna w dyskach komputerów mainframe. Twardy dysk był i jest złożony.
Natomiast układy do sterowania silników krokowych dalej są masowo produkowane a silniki krokowe nadal mają mnóstwo zastosowań. Silnik krokowy w serwomechanizmie z reguły pracuje bez drogiego sensora położenia. Masowo produkowane silniki krokowe są bardzo tanie.
W przetworniku DAC Sigma Delta w modulatorze cyfrowe próbki sygnału analogowego o rozdzielczości 16-20 bitów są przetwarzane na próbki o dużo mniejszej rozdzielczości ( w krańcowej sytuacji tylko 1 bit DAC ) ale też dużo większej częstotliwości próbkowania. Przy 16 i 1 bicie częstotliwość może być większa 256 razy ! 
Koncern Allegro MicroSystem produkuje w technologii CMOS-DMOS układ A4988. Ma ona dwa mostki mocy H do sterowania uzwojeń silnika krokowego, modulatory PWM oraz dwa przetwornik D/A ( najmniejszy mikrokrok jest 1/16 pełnego kroku ) ale one sygnały otrzymują z układu logicznego z licznikiem który od procesora dostaje sygnału Step i Dir. Układ jest tani. Ponieważ ma dużą sprawność jest umieszczony w obudowie SMD i elektronika do wielu napędów jest bardzo mała. Chętnie jest stosowany w drukarkach 3D.
Aby ruch był gładki i bez zakłóceń odległość w czasie kolejnych sygnałów Step musi być odwrotnie proporcjonalna ( kłopotliwe i powolne dzielenie !) do aktualnie zadanej prędkości. Gdy napędów jest dużo mikrokontroler może nie mieć tylu liczników do odmierzania odcinków czasów dla każdego napędu osobno. Dodatkowo programy dla serwo pracują asynchronicznie co komplikuje idee programu. Można też gęsto co mały stały odcinek czasu wysyłać impulsy Step potrzebne akurat napędom. Im ten odcinek jest mniejszy tym mniejsze są wprowadzone tym algorytmem szumy. Konkretny potrzebny odcinek czasu jest więc z grubsza  skwantowany (skwantowana jest też amplituda ! ) i można tu adaptować idee modulacji Sigma Delta bowiem widać tu z grubsza analogie do kwantyzacji i przetwarzania ADC Sigma Delta.     

-Ile razy częściej trzeba generować ( albo i w danym cyklu nie generować ) kroki mikro Step (16) w małych, stałych odstępach czasu zamiast podawania „analogowych” próbek 7 bitowych aby pogorszenie jakości pracy silnika nie było większe od p(=10%) ? Zaproponuj odpowiednie algorytmy.

20 komentarzy:

  1. Szacunek dla Autora. Poziom kosmiczny !

    OdpowiedzUsuń
    Odpowiedzi
    1. Witam
      Poziom nie moze być za wysoki bo liczba czytelnikow za mocno spadnie !

      Usuń
  2. Fascynujący wpis. Podoba mi się.

    OdpowiedzUsuń
    Odpowiedzi
    1. Witam. Proszę o ewentualne sugestie co do tematów.

      Usuń
  3. Niesamowicie wartościowy wpis. Super

    OdpowiedzUsuń
  4. Ten wpis jest bardzo ciekawy

    OdpowiedzUsuń
  5. Odpowiedzi
    1. Witam. Tak pochwała mobilizuje do dalszego wysiłku !

      Usuń
  6. Wiele tutaj interesujących i ważnych informacji.

    OdpowiedzUsuń
  7. Ten wpis jest bardzo ciekawy

    OdpowiedzUsuń
  8. W tym wpisie znajduje się wiele ważnych i ciekawych informacji.

    OdpowiedzUsuń
  9. Niesamowicie wartościowy wpis. Super

    OdpowiedzUsuń
  10. Te wpisy pomagają mi poszerzać swoją wiedze w tym zakresie.

    OdpowiedzUsuń