piątek, 31 maja 2019

Archiwum – SENSORY 34

Archiwum – SENSORY 34
Wartość dodana sensorów 2
W omówieniach poszczególnych sensorów celowo pominięto fizykę działania ( dostępną w podręcznikach) aby skupić uwagę na aspektach systemowych stosowania sensorów. Wyrwanie tematu sensorów z kontekstu prowadzi na manowce rozważań i działania.
Wytwarzana przez człowieka energia pozwoliła na zastosowanie mechanizacji a następną falą modernizacji jest automatyzacja obficie stosująca sensory jako źródło informacji o stanie kontrolowanego procesu.
O opłacalności automatyzacji ( a robotyzacji w szczególności) decyduje poziom płac pracowników. W sytuacji niskich zarobków praca automatycznych maszyn jest niekonkurencyjnie droga przy pracy ludzi.

Sensory jonizacyjne, fotodiody w różnych aranżacjach, sensory piroelektryczne i sensory temperatur stosowane są w czujkach pożarowych i czujkach systemów dostępowych. Alarmy stosujemy ma obiektach o dużej wartości gdzie pożar równy jest z katastrofą – drapacze chmur, wielkie sale koncertowe, zakład petrochemiczny. Gdy Polska i Polacy się wzbogacą to wzrośnie zapotrzebowanie na alarmy pożarowe i dostępowe czy też raczej antydostępowe.

Realia ekonomiczne są nieubłagane. Słyszy się narzekania na niską sprawność naszych elektrowni węglowych gdy w świecie stosowane są już parametry ultranadkrytyczne pary co istotnie podwyższa sprawność elektrowni cieplnych. Do budowy przegrzewaczy kotła i części rurociągów oraz stopnia wysokociśnieniowego turbiny trzeba użyć wysokiej jakości wytrzymałych stali żaroodpornych. Stale żaroodporne generalnie zawierają w dużej ilości dodatki stopowe: chromu, niklu, molibdenu, wolframu i tytanu. Metale te eksportuje Związek Radziecki ale po cenach światowych i tylko za dolary mimo iż RWPG nadal istnieje. Mając dolary lub inną twardą walutę nie trzeba ich kupować w ZSRR. Sumarycznie więc nie mając miliardów dolarów musimy wydobywać dużo węgla choć wystarczyłoby go mniej ale wymienione metale są bardzo drogie.
Za kilka lat rozpocznie prace elektrownia jądrowa w Żarnowcu i od razu odetchnie nasza ekonomia stojąca dotąd na węglu.
O sensorach LVDT napisano: "Stabilny temperaturowo i dlugoczasowo karkas uzwojenia LVDT jest wykonany z Nylonu 6 lub 66 ( lub lepszych tworzyw ) z włóknem szklanym. Długi karkas jest sekcjonowany z uwagi na stabilność mechaniczna ułożenia uzwojenia. Naprężenie drutu nawojowego winno być niewielkie ale stabilne aby nie doprowadzić do płynięcia i odkształcenia materiału karkasu ale wystarczające do równego i powtarzalnego ułożenia drutu uzwojenia. Stosujemy drut samospełniający się lub odpowiednia zalewę.
Przesuwany rdzeń z reguły wykonany jest z permalloyow a w tym specjalnie dedykowanych do LVDT. Rdzeń jest umocowany do łożyskowanego trzpienia ze stali diamagnetycznej lub plastikowego. Domeny magnetyczne stali diamagnetycznej w procesie obróbki skrawaniem na zimno ulegają uporządkowaniu i konieczna jest obróbka cieplna dla przywrócenia własności diamagnetycznych.
Metalowa obudowa LVDT winna zapewnić skuteczne ekranowanie."
Zatem wymieniono potrzebne materiały i dość proste technologie. Bez nich nie wyprodukujemy dobrego sensora LVDT. Oczywiście permalloye kupimy tylko za dolary... Podstawowe permalloye są produkowane w ZSRR.

Celem wszelkiej działalności człowieka a więc naukowo-badawczej, rolniczej, przemysłowej, budowlanej, usługowej ( szczególnie ochrona zdrowia ) i handlowej jest zaspokajanie potrzeb człowieka. Rozbudzane potrzeby ludzkie wydają się nie mieć końca. W krajach Zachodu tradycyjne potrzeby są już w pełni zaspokojone i wzrost gospodarczy jest możliwy tylko dzięki innowacjom pozwalającym stworzyć nowe potrzeby i towary do ich zaspokojenia.
Potrzeba i desperacją są matkami wynalazków. „Miniaturyzowane” bardzo dokładne zegary atomowe Hewlett Packard były potrzebne do umieszczenia ich na satelitach aby stworzyć militarny system pozwalający dokładnie określić położenie taniego odbiornika systemu na kuli ziemskiej. Dzięki temu pocisku samosterujące odpalone z odległości tysięcy kilometrów mogą bardzo dokładnie trafić cel do zneutralizowania co pozwala zmniejszyć moc angażowanych głowic termojądrowych.

Większość sensorów pracuje w pętlach regulacji automatycznej. Ale po bliższym przyjrzeniu się sprawie okazuje się że prawie wszystkie pracują w pętli regulacji tylko że niektóre z udziałem człowieka jako regulatora lub nadzorcy.
Domowy termometr odczytany przez człowieka odczuwającego dyskomfort cieplny / zimno instruuje człowieka że ma na przykład napalić w piecu albo podkręcić pokrętła zaworów regulacyjnych kaloryferów. System pracuje więc w zamkniętej pętli sprzężenia zwrotnego.
Termometr zewnętrzny lub telewizyjna prognoza pogody informuje jak należy się ubrać.
W samochodzie osobowym mamy obrotomierz, wskaźnik temperatury silnika, kontrolkę ciśnienia oleju, wskaźnik ilości paliwa, kontrolkę ładowania lub woltomierz.
Obrotomierz pozwala początkującemu kierowcy wybrać moment zmiany biegów no i zapobiec uszkodzenia silnika nadmiernymi obrotami.
Kontrolka ciśnienia oleju wskazuje niebezpieczną sytuacje wymagającą natychmiastowej akcji korekcyjnej. W najlepszym razie oleju może być za mało. Może być uszkodzona uszczelka lub uszkodzona pompa.
Wskaźnik ilości paliwa wymusi na kierowcy zatankowanie samochodu.
Kontrolka ładowania lub woltomierz wskazują na uszkodzenie alternatora lub akumulatora. Człowiek musi podjąć akcje korekcyjną.
Sensory stosowane są w systemach regulacji, monitoringu i systemach alarmowych.
W systemie monitoringu operator obserwuje stan obiektu i podejmuje decyzje. W systemie alarmowym przekroczenie ustawionych progów alarmowych dla zmiennej procesowej lub kombinacji zmiennych w określonym kontekście wyzwala alarm. Aby uniknąć fałszywych alarmów w nowoczesnych czujkach pożarowych stosuje się dwa sensory i system przetwarzania sygnałów z nich.

Lepkość jest miarą tarcia wewnętrznego płynu. Nazwy płynów sugerują lepkość. Syrop jest bardziej lepki niż woda. Jeszcze bardziej lepka jest zimna smoła. Pomiary lepkości wykonuje się reometrami lub wiskozymetrami ( zdania co to tego czy to jest sensor czy przyrząd pomiarowy są podzielone) a reologia to gałąź nauki o lepkości. Lepkość 70% roztworu cukru jest 400 razy większa od wody. W temperaturze pokojowej lepkość smoły jest 240 mld razy większa od wody.
Lepkość ciężkiego paliwa Diesla ( HFO - Heavy Fuel Oil a po polsku paliwo pozostałościowe lub nieściśle mazut ) podanego do potężnego silnika okrętowego lub energetycznego musi być odpowiednia dla jego pompy wtryskowej i wtryskiwaczy co reguluje się dopływem pary grzejnej do podgrzewacza HFO. Ponieważ sensor - wiskozymetr pracuje tu w pętli sprzężenia zwrotnego musi być w miarę szybki. Jest to elektroniczny sensor rezonansowy lub ultradźwiękowy ze standardowym wyjście w systemie automatyki, na przykład 0-10V lub 4-20 mA. Po awarii sensora – wiskozymetru system automatycznie przechodzi na stabilizacje temperatury, która winna być odpowiednio ustawiona przez mechanika od silnika. System regulacji pracuje w konfiguracji kaskadowej. Wewnętrzna pętla reguluje temperaturę a zewnętrzna lepkość paliwa.
Paliwo HFO może być zanieczyszczone toteż przechodzi one przez wirówkę używającą w procesie czyszczenia wody. Wirówka ma prosty mechaniczny sensor zbyt silnych drgań a sensor za wirówką sprawdza czy w paliwie nie ma zbyt dużo wody co świadczyłoby o awarii wirówki i przecieku wody do HFO. Sensor mierzy pojemność „kondensatora” z dwóch elektrod umieszczonych w paliwie. Woda ma duży współczynnik przenikalności dielektryczne Er=81 i obecność wody mocno zwiększa pojemność „kondensatora” mierzoną przez sensor.
System wirówki i podgrzewacza używa zatem co najmniej czterech sensorów. Czy nie lepiej byłoby pozbyć się systemu do czyszczenia i podgrzania HFO i stosować zwykłe paliwo Diesla. Otóż HFO jest tani w porównaniu ze zwykłym paliwem do silnika Diesla a poza tym w portach w dużych ilościach można zabunkrować tylko HFO. Paliwo dieslowskie do agregatów kupowane jest w znacznie mniejszych ilościach. Poza tym gęste paliwo o wysokim punkcie wrzenia i parowania jest bezpieczne a przecież duży statek ma tysiąc ton HFO. Nakład energii na transport tonokilometra towaru jest w dużym statku mniejszy niż w transporcie kolejowym. Niemniej z powodu ogromnej masy towarów i wielkich odległości transport morski pozera ogromne ilości paliw i stanowią one duża cześć kosztów eksploatacji statków.
System HFO musi być Fault Tolerant jako że skutkiem unieruchomienia napędu statku może być kolizja z inną jednostką i wielkie kłopoty w czasie sztormu.

Lepkość jest ogromnie ważna w procesach produkcyjnych.
Okazuje się że lepkość nazwana w przybliżeniu teksturą ( brak jest akceptowalnej definicji tekstury ) decyduje o atrakcyjności żywności niewiele mniej niż smak, zapach, kolor i wygląd. Po prostu tekstura musi być taka aby żywność dobrze się w ustach żuło i by przy jej kawałkowaniu nożem i widelcem lub gryzieniu - odrywaniu jej tekstura była taka jaką klient oczekuje i do jakiej jest przyzwyczajony. Odpowiednią lepkość ma mieć miód, marmolada, majonez i ketchup.
W fabrycznym laboratorium żywnościowym laborant prostym przyrządem bada lepkość wyprodukowanego wyrobu i informacje przekazuje technologowi, który decyduje o zmianie receptury aby utrzymać normatywną "lepkość". Oczywiście taki system sprzężenia zwrotnego jest powolny. Laborant jest sensorem a technolog regulatorem w procesie produkcji. Laborant bada też lepkość - teksturę wejściowych surowców.
Pod względem szybkości odpowiedzi sensory są on - line, at - line i off - line. "Szybkie" sensory on - line dostarczają informacji używanej przez regulatory procesowe. Czas odpowiedzi sensorów at - line jest rzędu dziesiątek sekund lub już minut. Wymaga to użycia niestandardowych regulatorów programowych lub akcji człowieka. „Sensory” off - line to różne przyrządy laboratoryjne o czasie odpowiedzi godzin lub dni.
W przemyśle spożywczym mierzy się sensorami masę ( także strumienie masy ), objętość, temperaturę, współczynnik pH, lepkość i barwę. Gotowy produkt kontroluje się na brak w nim metalu, szkła, kamieni itp.

Ciężki niemiecki czołg Tygrys z czasów II Wojny Światowej ze znakomitą armata 88 mm ( pierwotnie przeciwlotniczą ) i dobrym celownikiem niszczył czołgi aliantów z odległości ponad kilometra podczas gdy wrogie czołgi zagrażały mu dopiero z odległości paruset metrów.
Toteż uwzględniając nauki z przeszłości współczesny zachodni ( czyli amerykański ) czołg ma żyroskop, dalmierz laserowy, sensor wektora kierunki i siły wiatru, sensor temperatur i wilgotności powietrza oraz sensory kątów położenia armaty i celownika. Strzelec w jadącym czołgu po wzięciu wroga na cel i zmierzeniu odległości ( komputer wylicza poprawki ) może trafić poruszający się wrogi czołg z odległości nawet 4 km a w nocy ponad 2 km ! Silna armata czołgu jest poruszana/stabilizowana szybkimi i dokładnymi serwomechanizmami sterowanymi przez program komputera systemu kierowania ogniem. Komputer czołgu z radiowym systemem łączności cyfrowej może otrzymywać potrzebne informacje o sytuacji na polu walki. Prymitywniejszy czołg wroga jest wobec takiego drapieżnika bezbronny.
Czołgowy system musi być typu Fault Tolerant. Przy przykładowym uszkodzeniu miernika temperatury powietrza strzelec wpisuje komputerowi temperaturę jaką ocenia.
Amerykanie zbrojący i dotujący Izrael testują w bliskowschodnich konfliktach skuteczność swojej broni ale unikają angażowania bez potrzeby nowoczesnych broni. Konflikt w dużej skali ( jeśli będzie) pokaże nam skuteczność nowych amerykańskich broni.
Polska jest dużym eksporterem broni. Produkowany na licencji ZSRR czołg T72 jest przestarzały pod każdym względem. Czołg jest jednocześnie bronią ofensywną ale też defensywną przeciwko nacierającym czołgom. W obronie przed czołgami najbardziej skuteczne są obecnie rakiety przeciwpancerne wystrzeliwane przez piechotę i helikoptery. Czołg nie jest bronią perspektywiczną ale nie ma powodu aby na jego eksporcie nie zarabiać. Niemniej najbardziej rażące wady czołgu T72 można częściowo usunąć. Moc silnika można zwiększyć stosując lepszą pompę wtryskowa, wtryskiwacze oraz zmieniając kształt komory spalania. Dalszy przyrost mocy da turbosprężarka. Wytrzymałość pancerza można powiększyć co łączy się ze wzrostem wagi czołgu ale można dodatkowo zamontować pancerz reaktywny. Oczywiście potrzebny jest znacznie nowocześniejszy pocisk kinetyczny o dużo głębszej penetracji oraz mniej niszczący lufę. Wyprodukowanie w Polsce takiego pocisku może być jednak trudne lub niemożliwe z uwagi na konieczność użycia wolframu lub zubożonego uranu i nowoczesnych tworzyw sztucznych objętych embargiem zachodu. W tak zmodernizowanym mechanicznie czołgu sens ma omówiony nowoczesny system kierowania ogniem.
Cel uświęca środki. Potrzeba i desperacja są matką wynalazków. Abstrahując od uwarunkowań politycznych opracowanie w Polsce od podstaw czołgu i uruchomienie jego produkcji wymagałoby wyłożenia ponad miliarda dolarów środków co wydaje się nieracjonalne. W czasach pokojowych opracowanie dobrego czołgu zajmie 10 lat lub więcej. Natomiast wspomniana modernizacja mechaniczna może być dość tania.
To co dany kraj eksportuje i importuje ( sektor dóbr handlowalnych międzynarodowo ) wyznacza poziom realnych płac.

Najbardziej złożonym i najdroższym towarem masowym jaki może kupić osoba fizyczna jest samochód. Oczywiście nie licząc mieszkania / domu.
Electronic Control Unit, zbudowany wokół mikrokontrolera, sterujący wtryskiwacze nowoczesnego samochodowego silnika spalinowego i tranzystor Darlingtona zapłonu ma współpracujący sensor położenia pedału gazu, sensor/y położenia wału korbowego, sensory temperatury powietrza i silnika, przepływu strumienia powietrza i jego ciśnienia, ultradźwiękowy sesnor - „mikrofon” wyczuwający detonacje spalania stukowego i sensor tlenu Lambda w spalinach.
Im mniej dokładne będą użyte sensory tym mniejsza będzie moc silnika i jego sprawność a zatem większe zużycie paliwa przez niego. Moc silnika ma konkretną cenę podobnie jak paliwo. Czyli można w przybliżeniu określić racjonalną /optymalną cenę przyrostu dokładności sensorów !
Oczywiście system ECU musi być Fault Tolerant umożliwiając kierowcy po awarii dojazd do stacji obsługi. Ale uszkodzenie sensora kąta położenia wału korbowego jest nokautujące dla systemu.
Jest ostatni dzwonek na modernizacje produkowanych w Polsce samochodów i skonstruowanie krajowego systemu ECU. Bez tego Polska wypadnie z grona producentów samochodów osobowych co uwsteczni nam strukturę gospodarki. Gdy nie będziemy produkować samochodów nie będzie komu sprzedać ECU. Jak widać funkcjonują sprzężenia zwrotne w systemie.
Nie od razu Kraków zbudowano” Pierwszy model może być z jednopunktowym wtryskiem bez sondy Lambda i sensora detonacji. Wymagane modyfikacje form odlewniczych do korpusu silnika nie są duże. Z drugiej strony fakt że jedynym autentycznie polskim samochodem osobowym jest Syrena nie napawa optymizmem.
Impulsowym sensorem kąta położenia wału korbowego dla ECU może być czujnik reluktancyjny czyli pick-up coil, Transoptor lub Hallotron. Stosujemy sensor którego mamy opanowaną technologie.
Gdy się nie ma co się lubi to się lubi co się ma
Gdy się nie ma Grety Garbo to i Salcie nie jest zła”
Interfejs między sensorem a mikrokontrolerem musi być bardzo prosty – zoptymalizowany. Z punktu widzenia programu mikrokontrolera ECU rodzaj użytego sensora nie powinien być istotny. Różnica może się sprowadzać do wartości parametru lub parametrów.
Zwróćmy uwagę że w sieciowym systemie operacyjnym Unix programowe operacje I/O są niezależne od tego czy plik zapisujemy na dysku czy wysyłamy „wtyczką” ( socked ) siecią.
Uruchamianie systemów czasu rzeczywistego jest trudne a nawet bardzo trudne na tle zwykłych programów. Toteż uruchamiając ECU od razu wykorzystujemy zaimplementową ideę Fault Tolerant aby rozpocząć pracę tylko z częścią sensorów.
ECU to przykład komputerka, systemu wbudowanego. Program dla systemu wbudowanego jest trudny do stworzenia ale jego stworzenia jest bardzo opłacalne.
Żaden układ regulacji nie jest lepszy niż użyte w nim sensory. Sensory dostarczają systemowi informacje. Pneumatyczne regulatory PI /PID pojawiły się w połowie lat trzydziestych ale regulator obrotów parowego silnika Watta został skonstruowany w XVIII wieku. W regulatorze obrotów silnika parowego zwanym governorem nie jest jawnie wydzielony sensor, regulator i aktuator.
W przypadku prostych skalarnych sensorów sygnał ( po ewentualnej linearyzacji ) z kondycjonera jest wprost użyteczną informacją.

Wektorowy sensor ( 500-800 fotodiod za „kryształem” scyntylacyjnym lub scalona linijka fotodiod – przykład dalej lub sensor CCD, czyli są sensory alternatywne ) w rentgenowskim tomografie komputerowym X dostarcza nam kolejne wektory projekcji, które dla człowieka są bezużyteczne. Z serii projekcji trzeba odtworzyć ( rekonstrukcja tomograficzna ) przekrój ciała pacjenta. Ponieważ nakład obliczeń na rekonstrukcje tomograficzną jest ogromny potrzebny jest silny komputer z procesorami DSP. Obraz z projekcji odtwarzamy także z innych skanerów medycznych. Same projekcje są zapisywane na twardym dysku i obraz może być w przyszłości rekonstruowany lepszym programem niż dostarczony aktualnie.

W klasycznym przyrządzie EKG rejestrowany jest na taśmie papieru sygnał elektryczny serca z elektrod ( czy te elektrody są sensorem ? ) umieszczonych na pacjencie. Ale przyrząd EKG winien być podłączony siecią komputerową do serwera szpitala a cyfrowy sygnał EKG zapisany jako plik. Lekarz kardiolog dekoduje – wydobywa po analizie zapisu EKG użyteczne informacje i wykonuje opis EKG. Na podstawie tego opisu dobiera się leki i podejmuje leczenie szpitalne łącznie z zabiegami chirurgicznymi. Sygnał EKG po zdekodowaniu użyty jest w systemie sprzężenia zwrotnego !
Już obecnie funkcje zdekodowania sygnału EKG czyli wykonanie opisu może wykonać program komputerowy ! Na podstawie opisu EKG i zebranych w formie tabeli informacji od pacjenta i dobranie dla niego najlepszego/optymalnego leku też może być zautomatyzowane.

Do serwera szpitala powinny być dołączone wszelkie diagnostyczne przyrządy szpitalne łącznie ze skanerami. Pojemność dostępnych twardych dysków szybko rośnie ale z ogromną ilością informacji można sobie radzić przechowując po czasie na twardych dyskach tylko tekstowe opisy EKG, opisy tomografii, ultrasonografii... a same obrazu i sygnały archiwizując na taniej taśmie. Od czasu do czasu można z taśmy wydobyć potrzebne pliki.
Analitycy w czasie II Wojny dekodowali komunikaty zakodowane Enigmą. Od lat czterdziestych kryptografia jest domeną komputerów

Stany Zjednoczone toczyły z III Rzeszą i Japonią wojnę powietrzną czemu zawdzięczają ledwie 403 tysiące ofiar śmiertelnych. Lotniskowiec z flotą samolotów na pokładzie jest bardzo silnie chroniony przez cały zespół otaczających go okrętów. Współcześnie komputery przetwarzają sygnały z radarów i kierują rakiety na wrogi cel. Ostatnią linią obrony jest sterowany przez komputer z wieloma sensorami rozbudowany zespół szybkostrzelnych wielkokalibrowych karabinów- działek zdolny wyrzucić tysiące pocisków na sekundę ! Już pod koniec II Wojny japońscy samobójczy piloci Kamikaze mieli ogromne trudności z przedarciem się przez silną obronę okrętów.
Ogromnie ważnym zadaniem systemu obrony jest zdetekowanie lecących rakiet. Sygnały z radarów pozahoryzontalnych są odszumiane filtrem Kalmana. System obserwacji zawiera też satelity.
W systemie analogowym sygnał z sensorów czyli informacja podany jest do regulatorów analogowych. W złożonym systemie mogą być oprócz regulatorów użyte różne analogowe generatory funkcji i funkcje nieliniowe.
W systemie cyfrowym informacja z sensorów ma postać zunifikowaną. Także sprzęt do dekodowania informacji z sensorów wektorowych może być „zunifikowany”

W erze przed-komputerowej na Zachodzie informacje przechowywano w kartotekach i katalogach. Przykładowo w dużej bibliotece książkę możemy znaleźć na wiele sposób według nazwiska autora, tytułu i tematu. Możemy poszukać interesujących nas patentów.
Duże zachodnie koncerny miały opanowane przetwarzanie informacji w związku ze swoją działalnością. Toteż komputeryzacja w USA i na Zachodzie przebiega dość gładko w przeciwieństwie do krajów III Świata, gdzie komputeryzacja znaczy tyle samo co korupcja i marnotrawstwo. Na tle krajów Europy Zachodniej biurokracja w Polsce nie jest rozbudowana. Natomiast komputer PC z drukarką jest pożywką dla biurokracji.

Człowiek cały czas przyjmuje informacje, podejmuje decyzje i działania. Jego sensorami są wzrok, słuch, dotyk, powonienie, smak. Inteligencja,wiedza i doświadczenie pozwalają podjąć dobrą decyzję życiową. Najważniejsze to być we właściwym miejscu, czasie i towarzystwie.

Radar do pomiaru prędkości samochodów sprzężony z aparatem fotograficznym rejestruje samochody przekraczające prędkość lub obecne na skrzyżowaniu przy czerwonym świetle. Urzędnicy na podstawie numeru rejestracyjnego samochodu wysyłają kierowcom mandaty karne.
System działa ze sprzężeniem zwrotnym. Ukarani kierowcy zmniejszę prędkość samochodu i tym samym spadnie ilość wypadków, zwłaszcza tych najgroźniejszych.
System jest podany na automatyzacje. Zdjęcie samochodu wykonane aparatem z sensorem CCD może być cyfrowe. Program komputerowy może niedługo rozpoznać numer rejestracji z tablicy samochodu. Mandat do wykonania - egzekucji można siecią komputerową przesłać do firmy zatrudniającej niesfornego kierowce do potrącenia z pensji. Poinformowanie o wykroczeniu firmy może mieć wzmożony efekt dyscyplinujący kierowcę a przecież o to chodzi.

Bardzo ważna jest informacja w wojnie. Stąd satelity obserwacyjne z czułymi sensorami połączone z Ziemią łączami mikrofalowymi. Dawniej wroga sondowało się rozpoznaniem w boju a dziś fotografuje się go z satelity.

Jeden z założycieli koncernu Intel Gordon Moor zauważył podwajanie się liczby tranzystorów w największych układach scalonych co około 18-24 miesięcy. Prawo to nazwano jego nazwiskiem.
Na koszt układu scalonego składa się znaczny koszt opracowania (im bardziej skomplikowany i innowacyjny jest układ ) i produkcji. Toteż firmy produkujące na rynek preferują układy produkowane masowo. Ale były i są koncerny które produkują układy scalone a w tym sensory tylko dla własnej produkcji. Tak postępowały m.in. koncerny IBM i Hewlett Packard. HP w 1976 roku wyprodukował 16 bitowy mikroprocesor MC5, którego koncern używał w swoich wyrobach uważając że więcej zarobi na sprzedaży mikrokomputerów i wyrafinowanych przyrządów pomiarowych stosujących ten procesor niż na sprzedaży mikroprocesora.
HP produkował na swoje potrzeby całkiem sporo układów scalonych. Przykładowo do uniwersalnych liczników /częstościomierzy produkował preskalery do 1.5 GHz oraz złożone układy licznikowe w wariacji szybkiej technologi ECL. Produkował hybrydowe układy mikrofalowe.
Z kolei rynkowe układy produkowane dla HP mają jego oznaczenie co utrudnia ustalenie tego co to jest za układ scalony.
W spektrofotometrach można stosować fotodiodę ( fotopowielacz ) i złożony mechaniczny skaner i filtr lub scaloną linijkę fotodiod lub sensor CCD. HP w 1980 roku do spektrofotometru HP8450 wyprodukował scalone linijki z 211 fotodiodami oraz równoległym do nich kondensatorami pamięciowymi o pojemności 10 pF oraz 211 kluczami MOS sterowanymi rejestrem przesuwnym załączającym co takt zegara jeden z kluczy. Scalone linijki mają specjalne filtry optyczne na zakres światła widzialnego lub UV. Spektrofotometr HP 8450 ma obie linijki. Na schematach pokazano aplikacje linijek w przyrządzie.
Serie produkcyjne wyrafinowanych przyrządów HP nie są długie i jak widać opłaciło się wyprodukowanie na własne potrzeby sensorów linijek fotodiod z akcesoriami. Projekt sensora jest względnie prosty co rzutowało na koszt opracowania.

W literaturze pierwszy układ scalony z fotodiodą i wzmacniaczem na tranzystorach N Mosfet opisano w 1972 roku ! Zwróćmy uwag że scalenie fotodiody i wzmacniacza eliminuje kosztowny kabel i kosztowne złącza o bardzo małych upływnościach.
Siemens oferuje układ scalony TFA1001W czyli fotodiodę scaloną ze wzmacniaczem. Parametry tego układu są dość niskie ale układ jest jak najbardziej użyteczny w podanych zastosowaniach.
Pojawiły się scalone odbiorniki do systemów zdalnego sterowani pilotem IR sprzętu RTV. Upraszcza to konstrukcje sprzętu RTV i potania jego produkcje.

Hewlett Packard oferuje układ odbiornika HFBR2416 ( nadajnik laserowy HFBR2406 ) do światłowodu zawierający fotodiodę PIN scaloną z przedwzmacniaczem szerokopasmowym o paśmie 100 Mbd o schemacie pokazanym poniżej.
Pasmo 100MHz pozwala ( zależy od kodu kanałowego ) przesłać strumień bitów 200 Mbps. W HFBR2416 zastosowano oczywiście wzmacniacz transimpedancyjny. Wraz ze zwiększaniem rozdzielczości technologii wzrośnie częstotliwość graniczna Ft tranzystorów a spadną ich pojemności. Czyli przenoszone pasmo będzie rosło. Szumy systemu można obniżyć stosując fotodiody lawinowe. Obecnie regulowane napięcie wsteczne fotodiod lawinowych wynosi 30-150V ale w przyszłości może on być nawet mniejsze od 5V ! Przyszły „HFBR” będzie jeszcze miał scalony regulator napięcia zasilania fotodiody lawinowej. Jakie częstotliwości graniczne mogą osiągnąć tranzystory bipolarne i MOS ? Trudno powiedzieć ale na pewno większe od 200 GHz.
Tranzystory bipolarne w szybkich układach ECL mają częstotliwość Ft>5-10 GHz. Czyli w przyszłości pasmo łączy światłowodowych ( abstrahując od dyspersji światłowodów ) przekroczy 1 GHz potem 10 Ghz i będzie dalej rosło ale już wolniej no chyba że Ft tranzystorów zdecydowanie przekroczy 200 GHz. .

Analog Devices oferuje scalony sensor temperatury AD590, którego schemat pokazano poniżej. Układ jest źródłem prądowym o czułości 1 uA/K mającym w temperaturze 298.2 K czyli 25C prąd wyjściowy 298.2 uA. AD590 jest wygodny aplikacyjnie. Układ umieszczony w małej metalowej obudowie tranzystora pracuje w zakresie temperatur -55...150C.
Jest pewne że mikroelektroniczne sensory ciśnienia KP i sensory pola magnetycznego KMZ zostaną niedługo scalone ze wzmacniaczami co uprości ich zastosowanie pozwalając wyjściowy sygnał z sensora wprost podać do przetwornika A/D mikrokontrolera.

Opracowanie niewyrafinowanego układu analogowego nie jest specjalnie trudne. Koniem roboczym jest w tym obszarze para różnicowa tranzystorów. Innymi klockami do budowy są źródła i lustra prądowe. Tworzony układ można zasymulować na komputerze PC i zbudować z dyskretnych elementów Q,D,R,C model do badań.
Firma EXAR produkuje matryce komórek analogowych do skonfigurowania. Są dostępne całkiem interesujące przykłady. Tak więc opracowanie scalonego z sensorem interfejsu nie jest żadnym cudem. Większym problemem jest technologia którą da się wytworzyć sensor i jego scalony interfejs.
Zdaniem autora przyszłość należy do technologii CMOS która jest bardzo uniwersalna. Nadaje się ona do wszystkiego a w tym do sensorów ze zintegrowanym interfejsem.

Koncern HP jako pierwszy zauważył ( to znaczy wyczuł w tym trend rozwoju i interes ) że wyniki pomiarów dokonywanych przez przyrządy są dalej przetwarzane przez człowieka lub komputery. Obecność człowieka w przekazywaniu odczytywanych danych z przyrządu pomiarowego do komputera jest nonsensem. Od 1967 roku odział HP Dymec produkuje 16 bitowe minikomputery 2116 dedykowane głównie do połączenia oferowanymi interfejsami z przyrządami pomiarowymi HP ale nie tylko HP. Minikomputery te zaczynały karierę w laboratoriach naukowych, badawczych i przemysłowych. Dopiero później w intencji HP minikomputery HP2100 i kolejne rodziny ( produkowane do dziś dnia ) z tą samą listą rozkazów stały się maszynami ogólnego przeznaczenia do wszystkiego.
Stosowanie komputerów w laboratoriach badawczych i w przemyśle daje konkretną wartość dodaną. Natomiast zastosowanie w Polsce komputerów PC w księgowości jedynie powiększy inflacje jako że wykonanie nowej kalkulacji cen wyrobów staje się trywialne.
Komputer PC ma sporo wad. System operacyjny DOS jest niesieciowy ! Trudność budowy kart jest spora. Ciasne są ograniczenia hardwarowe. Ale komputer jest tani jak barszcz i rośnie oferta kart interfejsów. Już jest dużo użytecznych programów na komputer PC.

Warto zauważyć ze przyrządy pomiarowe używane w serwisie czyli w naprawach i przeglądach nie potrzebują interfejsów do komputera. Technik lub inżynier od razu analizuje wynik pomiaru korzystając z materiałów technicznych producenta. Na zachodzie jest to Service Manual.

Coraz popularniejsze są kody kreskowe stosowane na towarach konsumpcyjnych i zaopatrzeniowych. To ta sama melodia co z przyrządami pomiarowymi i zbędnym człowiekiem przenoszącym dane. Poniżej schemat czytnika kodu kreskowego ( Bar code ) koncernu HP wykonanego w postaci pióro – podobnej.
W końcówce pióra jest oświetlająca dioda LED i fotodioda odbiorcza wraz z soczewką. Sygnał z fotodiody podany jest do wzmacniacza w aranżacji transkonduktancyjnego A1 o transimpendancji 10 Mohm. Sygnał 100 nA z fotodiody zamienia się w sygnał 1V na wyjściu wzmacniacza A1. Diody D3 i D4 wraz z kondensatorem C1 tworzą prostowniki szczytowe zaś wzmacniacz A2 objęty dodatnim sprzężeniem zwrotnym na rezystorach R2 i R3 jest „procesorem” sygnału niezawodnie wyłapującym przejścia na czytanym pasku. Tranzystory wyjściowe Q1 i Q2 zmniejszają czasy trwania zboczy sygnału cyfrowego jako że użyty podwójny wzmacniacz operacyjny w 8 pinowej obudowie jest dość wolny. Układ jest prosty i działa całkiem niezawodnie. Eliminuje wpływ oświetlenia postronnego.
Jednak do cyfrowej „kasy” sklepowej taki czytnik jest mało przydatny. Potrzebny jest skaner który już po mało dokładnym zbliżeniu towaru z etykietą z kodem paskowym zadziała poprawnie.
Czy sensory powinny mieć zintegrowane przetworniki A/D i interfejsy cyfrowe ? Aby udzielić trudnej odpowiedzi na to pytanie trzeba na sprawy spojrzeć z właściwej perspektywy.
Mikrokontroler w odbiorniku TVC dekoduje sygnały zdalnego sterowania z odbiornika podczerwieni. Kontrast, jaskrawość, nasycenie koloru oraz głośność regulowane są napięciami stałymi podanymi do układów wykonawczych. Sygnały PWM z mikrokontrolera są odfiltrowane dolnoprzepustowo i regulują kontrast, jaskrawość, nasycenie koloru oraz głośność. Sygnał PWM do napięciowego przestrajania głowicy VHF-UHF podany jest do tranzystorowego inwertera zasilanego napięciem 30V i po filtracji dolnoprzepustowej przestraja głowice.
Na początku lat osiemdziesiątych rozpoczęto produkować tanie preskalery pracujące na zakresie UHF i scalone syntezery częstotliwości z pętla fazowa PLL. Głowica telewizyjna z syntezerem częstotliwości jest o circa 30% większa gabarytem niż bez syntezera PLL przestrajana napięciowo. Jest też znacznie droższa. Oczywiście syntezer PLL musi otrzymywać informacje od mikrokontrolera rządzącego odbiornikiem TVC.
Dwukierunkowa szeregowa magistrala I2C (IIC, Inter Integrated Circuit ) została opracowana przez koncern Philips w 1982 roku. Bus wykorzystuje dwie dwukierunkowe linie: SDA, danych ( Serial Data Line) i SCL, zegara (Serial Clock Line). Układy scalone ( ale teoretycznie też urządzenia ) na obydwu liniach pracują w systemie Open Collector z rezystorami podciągającymi do zasilania 5V typowej wartości 4.7K. Masterem w systemie jest mikrokontroler a układy wykonawcze pracują jako Slave. Układy wykonawcze w TVC to syntezer częstotliwości w głowicy VHF-UHF, „procesor” Video i „procesor” Audio. Philips z interface I2C oferuje także wykonane w technologii CMOS zegar czasu rzeczywistego ( RTC – Real Time Clock ) z pamięcią RAM podtrzymywany bateryjnie, pamięć EEprom ( do nieulotnego pamiętania parametrów nastrojonych programów), przetworniki A/D ( sygnał magistrali SCL taktuje rejestr aproxymacyjny tworzący z przetwornikiem D/A przetwornik A/D ) i D/A, ekspandery – porty równoległe, sterowniki wyświetlaczy LCD, dekodery Teletekstu. Także układy w odtwarzaczu CD i wieży Audio są zarządzane przez mikrokontroler z magistralą I2C.
W układach cyfrowych wykonanych w technologii CMOS realizacja interfejsu I2C jest oczywista natomiast w wykonawczych analogowych układach bipolarnych interfejs I2C jest zaimplementowany w logice I2L. Prosty interface I2C – odbiornik wymaga w technologii I2L około 300 tranzystorów a więc sporo w porównaniu z częścią wykonawczą układu analogowego ale pamiętać należy ze tranzystor logiczny może być jak najmniejszy i mało powtarzalny wymiarem w odróżnieniu od tranzystora w układzie analogowym. Relatywnie ilość tranzystorów interfejsu I2C w procesorze CMOS Teletekstu jest znikoma.
Motorola w 1985 roku wypuściła układy scalone do konkurencyjnej magistrali szeregowej Serial Peripheral Interface (SPI).

Wróćmy do przyszłościowego sensora z interfejsem szeregowym.
Nowoczesne mikrokontrolery mają wbudowany 10 bitowy przetwornik A/D z wejściowym multiplexerem.
N.B. Mikrokontroler z wbudowanym przetwornikiem A/D bywa tańszy niż sam podobny przetwornik A/D co pokazuje miażdżącą przewagę i siłę technologi CMOS i odchodzącej NMOS.
W samochodowym silnikowym ECU kondycjonery sygnałów z analogowych sensorów są ekstremalnie zoptymalizowane i bardzo proste. Rozwiązania te są naprawdę dobre !
Przy stale rosnącej rozdzielczości technologi CMOS przetwornik A/D i interfejs szeregowej magistrali będą w końcu zajmować w „sensorze” maleńką powierzchnie podczas gdy powierzchnia sensora ( na przykład fotodiody ) w wielu wypadkach nie może być zmniejszona z uwagi na utratę czułości i szumy.
Linijka kilkuset fotodiod winna też mieć dla wysokiej czułości i małych szumów scalony wzmacniacz operacyjny w wejściem MOS lub JFet jako że połączenie sygnałowe kablem lub ścieżka z zewnętrznym wzmacniaczem jest bardzo szkodliwe.
NB. Wzmacniacze nie muszą mieć zabezpieczonych wejść bowiem układy razem wspólnie scalone spełniają przy okazji tą role. Pozwala to bardzo obniżyć prąd polaryzacji wejść. Często „wbudowane” wzmacniacze operacyjne są mocno uproszczone na tle zwykłych samodzielnych wzmacniaczy.
Dodanie do linijki fotodiod ze wzmacniaczem przetwornika A/D i interfejsu znacznie podniosłoby atrakcyjność takiego sensora wprost dołączonego do szeregowej magistrali SPI lub I2C wydajnego mikrokontrolera.
Dodawanie jednak przetwornika A/D i interfejsu szeregowego do prostego sensora wydaje się obecnie nieracjonalne.

Mechanizacja ->> Automatyzacja i sensory w niej. Temat do rzetelnego omówienia wymaga kilku tysięcy stron narracji. Tylko hasłowo i po łebkach.
Mechanizacja - Współcześnie znanych jest blisko 8 tysięcy rodzajów maszyn. Praca maszyn jest bardzo tania na tle pracy człowieka.
Maszyny tekstylne były twarzą początka Rewolucji Przemysłowej.
Coraz bardziej dostępna stal zastąpiła w konstrukcji maszyn drewno wprowadzając nową jakość.
Produkowano maszyny rolnicze.
Maszyna do ciągłej produkcji papieru zaczęła pracować w 1801 roku !
W połowie XIX wieku popularne stają się maszyny do przemysłu spożywczego.
Masowo produkuje się prasy, tokarki, frezarki.
Lokomotywy i kolej , turbiny parowe, elektrownie, maszyny elektryczne.
Maszyna do zwijania papierosów pracuje od 1881 roku.
W XX wieku maszyny stale się komplikują.

Szlachecka Polska była państwem strasznie prymitywnym i zapóźnionym cywilizacyjnie o setki lat. A wtedy w świecie dogorywającej Polski pojawia się... automatyzacja:
-W 1771 roku Richard Arkwright stworzył pierwszą automatyczną przędzalnię napędzaną energią wodną.
-Oliver Evans w 1785 roku stworzył automatyczny młyn do produkcji mąki. Był to pierwszy całkowicie zautomatyzowany proces przemysłowy.

Przekaźnikowe układy logiczne sterujące maszyny w automatyzowanych procesach pojawiają się na przełomie XIX i XX wieku. Pracują skomplikowane automatyczne ( tarcza numerowa pojawia się w telefonie w 1892 roku ) centrale telefoniczne ale wcale tak szybko się nie popularyzują. W 1905 roku pracuje maszyna do automatycznej produkcji butelek zastępująca kompanie ludzi. W latach dwudziestych pojawią się Sterownie ( Control Room ) gdzie operatorzy zdalnie prowadzą obserwowany proces przemysłowy.
W latach trzydziestych w zakładach Forda trwają próby z automatyzacją produkcji...
Od początka lat sześćdziesiątych duża automatyzacja jest komputeryzowana. Rośnie liczba regulatorów, sterowników PLC, maszyn sterowanych numerycznie NC a potem CNC i robotów.

Budowa i rodzaj automatycznej maszyny i kontrolowanego procesu narzuca wybór sensorów. Niemniej zawsze istnieje pole manewru i swobody.

Rozwój mikroelektroniki stwarza jednym ogromne szanse a innym zagrożenia. Jeszcze dwadzieścia lat temu komputery i minikomputery były okropnie drogie, skomplikowane i powolne.

Komputery rodziny IBM S360 mógł wyprodukować tylko potężny koncern dysponujący miliardami dolarów kapitału. IBM maszyny zbudował na układach hybrydowych nazwanych SLT – Solid Level Technology - które sam produkował w zautomatyzowanym procesie. Tylko najszybsze modele komputerów oparte były o scalone układy monolityczne ECL, które też IBM produkował dla siebie. W zestawie komputerowym były setki różnych płyt drukowanych toteż IBM stworzył dla siebie program komputerowy do ich projektowania. Backplane szafy procesora miał kilometry przewodów toteż owijanie ich na kołkach IBM zautomatyzował głównie dla eliminacji pomyłek. W latach sześćdziesiątych IBM produkował do 55-60% mocy wszystkich komputerów w świecie. Stąd komputer nazywany był często IBM. Ale i tak na zapowiedziane 20 typów komputerów S360 wypuszczono 14, część w znikomej ilości. S360 miało oznaczać 3 generacje maszyn na lata 60 - te lub uniwersalność jak kąt 360 stopni.
Komputery Riad 1 RWPG to logiczna kopia ( zgodność listy rozkazów i możliwość używania systemu operacyjnego i programów) maszyn S360 zbudowana na układach TTL. Nawet dysponując schematem ideowym płyt z SLT nie można go wprost przełożyć na TTL jako ze SLT były dalece odmienne funkcjonalnie.

Obecnie praca w świecie jest podzielona a technologia zdemonopolizowana i zdemokratyzowana. Wiodącym w świecie dostawcą technologi fotolitograficznej są firmy z Holandii. Coraz lepsze procesory rodziny '86 produkuje Intel i inne licencjonowane koncerny. Koncerny japońskie i koreański Samsung produkują pamięci DRAM. Układy peryferyjne produkuje ponad 10 koncernów. Dysk HD produkuje conajmniej 7 firm. Firmy z Tajwanu produkują płyty główne i karty rozszerzające do komputera PC. Do wyboru jest kilka systemów operacyjnych ale w praktyce niestety monopol ma MS DOS.

Gro nakładu pracy nad stworzeniem silnikowego ECU przypada obecnie na program i to daje nam ogromną szanse bo potrzebni są ludzie a nie miliardy dolarów na bajecznie skomplikowany hardware. Zespół który stworzy ECU do silnika samochodu osobowego szybko może zrobić ECU do silnika Diesla ( produkujemy dużo statków ) albo silnika lotniczego.

Tylko że w ramach dogasającej II Zimnej Wojny jesteśmy odcięci od świata i nie wolno nam kupować mikroelektroniki na światowym rynku a embargo na technologie mikroelektroniczną sprawia że technologia ta w RWPG stoi w miejscu od lat.

Każdy produkt rynkowy ma trzy fazy życia. W pierwszej fazie innowacyjny wyrób produkuje jeden koncern i cena poszukiwanego na rynku wyrobu jest wysoka. W drugiej fazie życia wyrób standardowy produkuje dużo firm z I Świata. Cena spadła ale produkcja jest wysoko rentowne. W III fazie życia za produkcje biorą się kraje III Świata a kończą produkcje kraje I Świata. Przestarzały wyrób jest tani a nawet bardzo tani.
Jak widać z tego dobrobyt polega na nowoczesnej produkcji. Nowoczesne, skomplikowane wyroby to duża marża i wynagrodzenia.
Polska ma duży potencjał wzrostu gospodarczego ale należy go odblokować i uruchomić.

1 komentarz: