Archiwum –
SENSORY 34
Wartość
dodana sensorów 2
W
omówieniach poszczególnych sensorów celowo pominięto fizykę
działania ( dostępną w podręcznikach) aby skupić uwagę na
aspektach systemowych stosowania sensorów. Wyrwanie tematu sensorów
z kontekstu prowadzi na manowce rozważań i działania.
Wytwarzana
przez człowieka energia pozwoliła na zastosowanie mechanizacji a
następną falą modernizacji jest automatyzacja obficie stosująca
sensory jako źródło informacji o stanie kontrolowanego procesu.
O
opłacalności automatyzacji ( a robotyzacji w szczególności)
decyduje poziom płac pracowników. W sytuacji niskich zarobków
praca automatycznych maszyn jest niekonkurencyjnie droga przy pracy
ludzi.
Sensory
jonizacyjne, fotodiody w różnych aranżacjach, sensory
piroelektryczne i sensory temperatur stosowane są w czujkach
pożarowych i czujkach systemów dostępowych. Alarmy stosujemy ma
obiektach o dużej wartości gdzie pożar równy jest z katastrofą –
drapacze chmur, wielkie sale koncertowe, zakład petrochemiczny. Gdy
Polska i Polacy się wzbogacą to wzrośnie zapotrzebowanie na alarmy
pożarowe i dostępowe czy też raczej antydostępowe.
Realia
ekonomiczne są nieubłagane. Słyszy się narzekania na niską
sprawność naszych elektrowni węglowych gdy w świecie stosowane są
już parametry ultranadkrytyczne pary co istotnie podwyższa
sprawność elektrowni cieplnych. Do budowy przegrzewaczy kotła i
części rurociągów oraz stopnia wysokociśnieniowego turbiny
trzeba użyć wysokiej jakości wytrzymałych stali żaroodpornych.
Stale
żaroodporne
generalnie zawierają w dużej ilości dodatki stopowe: chromu,
niklu, molibdenu, wolframu i tytanu. Metale te eksportuje Związek
Radziecki ale po cenach światowych i tylko za dolary mimo iż RWPG
nadal istnieje. Mając dolary lub inną twardą walutę nie trzeba
ich kupować w ZSRR. Sumarycznie więc nie mając miliardów dolarów
musimy wydobywać dużo węgla choć wystarczyłoby go mniej ale
wymienione metale są bardzo drogie.
Za
kilka lat rozpocznie prace elektrownia jądrowa w Żarnowcu i od
razu odetchnie nasza ekonomia stojąca dotąd na węglu.
O
sensorach LVDT napisano: "Stabilny temperaturowo i
dlugoczasowo karkas uzwojenia LVDT jest wykonany z Nylonu 6 lub 66 (
lub lepszych tworzyw ) z włóknem szklanym. Długi karkas jest
sekcjonowany z uwagi na stabilność mechaniczna ułożenia
uzwojenia. Naprężenie drutu nawojowego winno być niewielkie ale
stabilne aby nie doprowadzić do płynięcia i odkształcenia
materiału karkasu ale wystarczające do równego i powtarzalnego
ułożenia drutu uzwojenia. Stosujemy drut samospełniający się lub
odpowiednia zalewę.
Przesuwany
rdzeń z reguły wykonany jest z permalloyow a w tym specjalnie
dedykowanych do LVDT. Rdzeń jest umocowany do łożyskowanego
trzpienia ze stali diamagnetycznej lub plastikowego. Domeny
magnetyczne stali diamagnetycznej w procesie obróbki skrawaniem na
zimno ulegają uporządkowaniu i konieczna jest obróbka cieplna dla
przywrócenia własności diamagnetycznych.
Metalowa
obudowa LVDT winna zapewnić skuteczne ekranowanie."
Zatem
wymieniono potrzebne materiały i dość proste technologie. Bez nich
nie wyprodukujemy dobrego sensora LVDT. Oczywiście permalloye
kupimy tylko za dolary... Podstawowe permalloye są produkowane w
ZSRR.
Celem
wszelkiej działalności człowieka a więc naukowo-badawczej,
rolniczej, przemysłowej, budowlanej, usługowej ( szczególnie
ochrona zdrowia ) i handlowej jest zaspokajanie potrzeb człowieka.
Rozbudzane potrzeby ludzkie wydają się nie mieć końca. W krajach
Zachodu tradycyjne potrzeby są już w pełni zaspokojone i wzrost
gospodarczy jest możliwy tylko dzięki innowacjom pozwalającym
stworzyć nowe potrzeby i towary do ich zaspokojenia.
Potrzeba
i desperacją są matkami wynalazków. „Miniaturyzowane” bardzo
dokładne zegary atomowe Hewlett Packard były potrzebne do
umieszczenia ich na satelitach aby stworzyć militarny system
pozwalający dokładnie określić położenie taniego odbiornika
systemu na kuli ziemskiej. Dzięki temu pocisku samosterujące
odpalone z odległości tysięcy kilometrów mogą bardzo dokładnie
trafić cel do zneutralizowania co pozwala zmniejszyć moc
angażowanych głowic termojądrowych.
Większość
sensorów pracuje w pętlach regulacji automatycznej. Ale po bliższym
przyjrzeniu się sprawie okazuje się że prawie wszystkie pracują w
pętli regulacji tylko że niektóre z udziałem człowieka jako
regulatora lub nadzorcy.
Domowy
termometr odczytany przez człowieka odczuwającego dyskomfort
cieplny / zimno instruuje człowieka że ma na przykład napalić w
piecu albo podkręcić pokrętła zaworów regulacyjnych kaloryferów.
System pracuje więc w zamkniętej pętli sprzężenia zwrotnego.
Termometr
zewnętrzny lub telewizyjna prognoza pogody informuje jak należy się
ubrać.
W
samochodzie osobowym mamy obrotomierz, wskaźnik temperatury silnika,
kontrolkę ciśnienia oleju, wskaźnik ilości paliwa, kontrolkę
ładowania lub woltomierz.
Obrotomierz
pozwala początkującemu kierowcy wybrać moment zmiany biegów no i
zapobiec uszkodzenia silnika nadmiernymi obrotami.
Kontrolka
ciśnienia oleju wskazuje niebezpieczną sytuacje wymagającą
natychmiastowej akcji korekcyjnej. W najlepszym razie oleju może być
za mało. Może być uszkodzona uszczelka lub uszkodzona pompa.
Wskaźnik
ilości paliwa wymusi na kierowcy zatankowanie samochodu.
Kontrolka
ładowania lub woltomierz wskazują na uszkodzenie alternatora lub
akumulatora. Człowiek musi podjąć akcje korekcyjną.
Sensory
stosowane są w systemach regulacji, monitoringu i systemach
alarmowych.
W
systemie monitoringu operator obserwuje stan obiektu i podejmuje
decyzje. W systemie alarmowym przekroczenie ustawionych progów
alarmowych dla zmiennej procesowej lub kombinacji zmiennych w
określonym kontekście wyzwala alarm. Aby uniknąć fałszywych
alarmów w nowoczesnych czujkach pożarowych stosuje się dwa sensory
i system przetwarzania sygnałów z nich.
Lepkość
jest miarą tarcia wewnętrznego płynu. Nazwy płynów sugerują
lepkość. Syrop jest bardziej lepki niż woda. Jeszcze bardziej
lepka jest zimna smoła. Pomiary lepkości wykonuje się
reometrami lub wiskozymetrami ( zdania co to tego czy to jest sensor
czy przyrząd pomiarowy są podzielone) a reologia to gałąź nauki
o lepkości. Lepkość 70% roztworu cukru jest 400 razy większa od
wody. W temperaturze pokojowej lepkość smoły jest 240 mld razy
większa od wody.
Lepkość
ciężkiego paliwa Diesla ( HFO - Heavy Fuel Oil a po polsku paliwo
pozostałościowe lub nieściśle mazut ) podanego do potężnego
silnika okrętowego lub energetycznego musi być odpowiednia dla jego
pompy wtryskowej i wtryskiwaczy co reguluje się dopływem pary
grzejnej do podgrzewacza HFO. Ponieważ sensor - wiskozymetr pracuje
tu w pętli sprzężenia zwrotnego musi być w miarę szybki. Jest to
elektroniczny sensor rezonansowy lub ultradźwiękowy ze standardowym
wyjście w systemie automatyki, na przykład 0-10V lub 4-20 mA. Po
awarii sensora – wiskozymetru system automatycznie przechodzi na
stabilizacje temperatury, która winna być odpowiednio ustawiona
przez mechanika od silnika. System regulacji pracuje w konfiguracji
kaskadowej. Wewnętrzna pętla reguluje temperaturę a zewnętrzna
lepkość paliwa.
Paliwo
HFO może być zanieczyszczone toteż przechodzi one przez wirówkę
używającą w procesie czyszczenia wody. Wirówka ma prosty
mechaniczny sensor zbyt silnych drgań a sensor za wirówką sprawdza
czy w paliwie nie ma zbyt dużo wody co świadczyłoby o awarii
wirówki i przecieku wody do HFO. Sensor mierzy pojemność
„kondensatora” z dwóch elektrod umieszczonych w paliwie. Woda ma
duży współczynnik przenikalności dielektryczne Er=81 i obecność
wody mocno zwiększa pojemność „kondensatora” mierzoną przez
sensor.
System
wirówki i podgrzewacza używa zatem co najmniej czterech sensorów.
Czy nie lepiej byłoby pozbyć się systemu do czyszczenia i
podgrzania HFO i stosować zwykłe paliwo Diesla. Otóż HFO jest
tani w porównaniu ze zwykłym paliwem do silnika Diesla a poza tym w
portach w dużych ilościach można zabunkrować tylko HFO. Paliwo
dieslowskie do agregatów kupowane jest w znacznie mniejszych
ilościach. Poza tym gęste paliwo o wysokim punkcie wrzenia i
parowania jest bezpieczne a przecież duży statek ma tysiąc ton
HFO. Nakład energii na transport tonokilometra towaru jest w dużym
statku mniejszy niż w transporcie kolejowym. Niemniej z powodu
ogromnej masy towarów i wielkich odległości transport morski
pozera ogromne ilości paliw i stanowią one duża cześć kosztów
eksploatacji statków.
System
HFO musi być Fault Tolerant jako że skutkiem unieruchomienia napędu
statku może być kolizja z inną jednostką i wielkie kłopoty w
czasie sztormu.
Lepkość
jest ogromnie ważna w procesach produkcyjnych.
Okazuje
się że lepkość nazwana w przybliżeniu teksturą ( brak jest
akceptowalnej definicji tekstury ) decyduje o atrakcyjności żywności
niewiele mniej niż smak, zapach, kolor i wygląd. Po prostu tekstura
musi być taka aby żywność dobrze się w ustach żuło i by przy
jej kawałkowaniu nożem i widelcem lub gryzieniu - odrywaniu jej
tekstura była taka jaką klient oczekuje i do jakiej jest
przyzwyczajony. Odpowiednią lepkość ma mieć miód, marmolada,
majonez i ketchup.
W
fabrycznym laboratorium żywnościowym laborant prostym przyrządem
bada lepkość wyprodukowanego wyrobu i informacje przekazuje
technologowi, który decyduje o zmianie receptury aby utrzymać
normatywną "lepkość". Oczywiście taki system sprzężenia
zwrotnego jest powolny. Laborant jest sensorem a technolog
regulatorem w procesie produkcji. Laborant bada też lepkość -
teksturę wejściowych surowców.
Pod
względem szybkości odpowiedzi sensory są on - line, at - line i
off - line. "Szybkie" sensory on - line dostarczają
informacji używanej przez regulatory procesowe. Czas odpowiedzi
sensorów at - line jest rzędu dziesiątek sekund lub już minut.
Wymaga to użycia niestandardowych regulatorów programowych lub
akcji człowieka. „Sensory” off - line to różne przyrządy
laboratoryjne o czasie odpowiedzi godzin lub dni.
W
przemyśle spożywczym mierzy się sensorami masę ( także
strumienie masy ), objętość, temperaturę, współczynnik pH,
lepkość i barwę. Gotowy produkt kontroluje się na brak w nim
metalu, szkła, kamieni itp.
Ciężki
niemiecki czołg Tygrys z czasów II Wojny Światowej ze znakomitą
armata 88 mm ( pierwotnie przeciwlotniczą ) i dobrym celownikiem
niszczył czołgi aliantów z odległości ponad kilometra podczas
gdy wrogie czołgi zagrażały mu dopiero z odległości paruset
metrów.
Toteż
uwzględniając nauki z przeszłości współczesny zachodni ( czyli
amerykański ) czołg ma żyroskop, dalmierz laserowy, sensor wektora
kierunki i siły wiatru, sensor temperatur i wilgotności powietrza
oraz sensory kątów położenia armaty i celownika. Strzelec w
jadącym czołgu po wzięciu wroga na cel i zmierzeniu odległości
( komputer wylicza poprawki ) może trafić poruszający się wrogi
czołg z odległości nawet 4 km a w nocy ponad 2 km ! Silna armata
czołgu jest poruszana/stabilizowana szybkimi i dokładnymi
serwomechanizmami sterowanymi przez program komputera systemu
kierowania ogniem. Komputer czołgu z radiowym systemem łączności
cyfrowej może otrzymywać potrzebne informacje o sytuacji na polu
walki. Prymitywniejszy czołg wroga jest wobec takiego drapieżnika
bezbronny.
Czołgowy
system musi być typu Fault Tolerant. Przy przykładowym uszkodzeniu
miernika temperatury powietrza strzelec wpisuje komputerowi
temperaturę jaką ocenia.
Amerykanie
zbrojący i dotujący Izrael testują w bliskowschodnich konfliktach
skuteczność swojej broni ale unikają angażowania bez potrzeby
nowoczesnych broni. Konflikt w dużej skali ( jeśli będzie) pokaże
nam skuteczność nowych amerykańskich broni.
Polska
jest dużym eksporterem broni. Produkowany na licencji ZSRR czołg
T72 jest przestarzały pod każdym względem. Czołg jest
jednocześnie bronią ofensywną ale też defensywną przeciwko
nacierającym czołgom. W obronie przed czołgami najbardziej
skuteczne są obecnie rakiety przeciwpancerne wystrzeliwane przez
piechotę i helikoptery. Czołg nie jest bronią perspektywiczną ale
nie ma powodu aby na jego eksporcie nie zarabiać. Niemniej
najbardziej rażące wady czołgu T72 można częściowo usunąć.
Moc silnika można zwiększyć stosując lepszą pompę wtryskowa,
wtryskiwacze oraz zmieniając kształt komory spalania. Dalszy
przyrost mocy da turbosprężarka. Wytrzymałość pancerza można
powiększyć co łączy się ze wzrostem wagi czołgu ale można
dodatkowo zamontować pancerz reaktywny. Oczywiście potrzebny jest
znacznie nowocześniejszy pocisk kinetyczny o dużo głębszej
penetracji oraz mniej niszczący lufę. Wyprodukowanie w Polsce
takiego pocisku może być jednak trudne lub niemożliwe z uwagi na
konieczność użycia wolframu lub zubożonego uranu i nowoczesnych
tworzyw sztucznych objętych embargiem zachodu. W tak zmodernizowanym
mechanicznie czołgu sens ma omówiony nowoczesny system kierowania
ogniem.
Cel
uświęca środki. Potrzeba i desperacja są matką wynalazków.
Abstrahując od uwarunkowań politycznych opracowanie w Polsce od
podstaw czołgu i uruchomienie jego produkcji wymagałoby wyłożenia
ponad miliarda dolarów środków co wydaje się nieracjonalne. W
czasach pokojowych opracowanie dobrego czołgu zajmie 10 lat lub
więcej. Natomiast wspomniana modernizacja mechaniczna może być
dość tania.
To
co dany kraj eksportuje i importuje ( sektor dóbr handlowalnych
międzynarodowo ) wyznacza poziom realnych płac.
Najbardziej
złożonym i najdroższym towarem masowym jaki może kupić osoba
fizyczna jest samochód. Oczywiście nie licząc mieszkania / domu.
Electronic
Control Unit, zbudowany wokół mikrokontrolera, sterujący
wtryskiwacze nowoczesnego samochodowego silnika spalinowego i
tranzystor Darlingtona zapłonu ma współpracujący sensor położenia
pedału gazu, sensor/y położenia wału korbowego, sensory
temperatury powietrza i silnika, przepływu strumienia powietrza i
jego ciśnienia, ultradźwiękowy sesnor - „mikrofon” wyczuwający
detonacje spalania stukowego i sensor tlenu Lambda w spalinach.
Im
mniej dokładne będą użyte sensory tym mniejsza będzie moc
silnika i jego sprawność a zatem większe zużycie paliwa przez
niego. Moc silnika ma konkretną cenę podobnie jak paliwo. Czyli
można w przybliżeniu określić racjonalną /optymalną cenę
przyrostu dokładności sensorów !
Oczywiście
system ECU musi być Fault Tolerant umożliwiając kierowcy po awarii
dojazd do stacji obsługi. Ale uszkodzenie sensora kąta położenia
wału korbowego jest nokautujące dla systemu.
Jest
ostatni dzwonek na modernizacje produkowanych w Polsce samochodów i
skonstruowanie krajowego systemu ECU. Bez tego Polska wypadnie z
grona producentów samochodów osobowych co uwsteczni nam strukturę
gospodarki. Gdy nie będziemy produkować samochodów nie będzie
komu sprzedać ECU. Jak widać funkcjonują sprzężenia zwrotne w
systemie.
„Nie
od razu Kraków zbudowano” Pierwszy model może być z
jednopunktowym wtryskiem bez sondy Lambda i sensora detonacji.
Wymagane modyfikacje form odlewniczych do korpusu silnika nie są
duże. Z drugiej strony fakt że jedynym autentycznie polskim
samochodem osobowym jest Syrena nie napawa optymizmem.
Impulsowym
sensorem kąta położenia wału korbowego dla ECU może być czujnik
reluktancyjny czyli pick-up coil, Transoptor lub Hallotron. Stosujemy
sensor którego mamy opanowaną technologie.
„Gdy
się nie ma co się lubi to się lubi co się ma
Gdy
się nie ma Grety Garbo to i Salcie nie jest zła”
Interfejs
między sensorem a mikrokontrolerem musi być bardzo prosty –
zoptymalizowany. Z punktu widzenia programu mikrokontrolera ECU
rodzaj użytego sensora nie powinien być istotny. Różnica może
się sprowadzać do wartości parametru lub parametrów.
Zwróćmy
uwagę że w sieciowym systemie operacyjnym Unix programowe operacje
I/O są niezależne od tego czy plik zapisujemy na dysku czy wysyłamy
„wtyczką” ( socked ) siecią.
Uruchamianie
systemów czasu rzeczywistego jest trudne a nawet bardzo trudne na
tle zwykłych programów. Toteż uruchamiając ECU od razu
wykorzystujemy zaimplementową ideę Fault Tolerant aby rozpocząć
pracę tylko z częścią sensorów.
ECU
to przykład komputerka, systemu wbudowanego. Program dla systemu
wbudowanego jest trudny do stworzenia ale jego stworzenia jest bardzo
opłacalne.
Żaden
układ regulacji nie jest lepszy niż użyte w nim sensory. Sensory
dostarczają systemowi informacje. Pneumatyczne regulatory PI /PID
pojawiły się w połowie lat trzydziestych ale regulator obrotów
parowego silnika Watta został skonstruowany w XVIII wieku. W
regulatorze obrotów silnika parowego zwanym governorem nie jest
jawnie wydzielony sensor, regulator i aktuator.
W
przypadku prostych skalarnych sensorów sygnał ( po ewentualnej
linearyzacji ) z kondycjonera jest wprost użyteczną informacją.
Wektorowy
sensor ( 500-800 fotodiod za „kryształem” scyntylacyjnym lub
scalona linijka fotodiod – przykład dalej lub sensor CCD, czyli są
sensory alternatywne ) w rentgenowskim tomografie komputerowym X
dostarcza nam kolejne wektory projekcji, które dla człowieka są
bezużyteczne. Z serii projekcji trzeba odtworzyć ( rekonstrukcja
tomograficzna ) przekrój ciała pacjenta. Ponieważ nakład obliczeń
na rekonstrukcje tomograficzną jest ogromny potrzebny jest silny
komputer z procesorami DSP. Obraz z projekcji odtwarzamy także z
innych skanerów medycznych. Same projekcje są zapisywane na twardym
dysku i obraz może być w przyszłości rekonstruowany lepszym
programem niż dostarczony aktualnie.
W
klasycznym przyrządzie EKG rejestrowany jest na taśmie papieru
sygnał elektryczny serca z elektrod ( czy te elektrody są sensorem
? ) umieszczonych na pacjencie. Ale przyrząd EKG winien być
podłączony siecią komputerową do serwera szpitala a cyfrowy
sygnał EKG zapisany jako plik. Lekarz kardiolog dekoduje –
wydobywa po analizie zapisu EKG użyteczne informacje i wykonuje opis
EKG. Na podstawie tego opisu dobiera się leki i podejmuje leczenie
szpitalne łącznie z zabiegami chirurgicznymi. Sygnał EKG po
zdekodowaniu użyty jest w systemie sprzężenia zwrotnego !
Już
obecnie funkcje zdekodowania sygnału EKG czyli wykonanie opisu może
wykonać program komputerowy ! Na podstawie opisu EKG i zebranych w
formie tabeli informacji od pacjenta i dobranie dla niego
najlepszego/optymalnego leku też może być zautomatyzowane.
Do
serwera szpitala powinny być dołączone wszelkie diagnostyczne
przyrządy szpitalne łącznie ze skanerami. Pojemność dostępnych
twardych dysków szybko rośnie ale z ogromną ilością informacji
można sobie radzić przechowując po czasie na twardych dyskach
tylko tekstowe opisy EKG, opisy tomografii, ultrasonografii... a same
obrazu i sygnały archiwizując na taniej taśmie. Od czasu do czasu
można z taśmy wydobyć potrzebne pliki.
Analitycy
w czasie II Wojny dekodowali komunikaty zakodowane Enigmą. Od lat
czterdziestych kryptografia jest domeną komputerów
Stany
Zjednoczone toczyły z III Rzeszą i Japonią wojnę powietrzną
czemu zawdzięczają ledwie 403 tysiące ofiar śmiertelnych.
Lotniskowiec z flotą samolotów na pokładzie jest bardzo silnie
chroniony przez cały zespół otaczających go okrętów.
Współcześnie komputery przetwarzają sygnały z radarów i kierują
rakiety na wrogi cel. Ostatnią linią obrony jest sterowany przez
komputer z wieloma sensorami rozbudowany zespół szybkostrzelnych
wielkokalibrowych karabinów- działek zdolny wyrzucić tysiące
pocisków na sekundę ! Już pod koniec II Wojny japońscy
samobójczy piloci Kamikaze mieli ogromne trudności z przedarciem
się przez silną obronę okrętów.
Ogromnie
ważnym zadaniem systemu obrony jest zdetekowanie lecących rakiet.
Sygnały z radarów pozahoryzontalnych są odszumiane filtrem
Kalmana. System obserwacji zawiera też satelity.
W
systemie analogowym sygnał z sensorów czyli informacja podany jest
do regulatorów analogowych. W złożonym systemie mogą być oprócz
regulatorów użyte różne analogowe generatory funkcji i funkcje
nieliniowe.
W
systemie cyfrowym informacja z sensorów ma postać zunifikowaną.
Także sprzęt do dekodowania informacji z sensorów wektorowych może
być „zunifikowany”
W
erze przed-komputerowej na Zachodzie informacje przechowywano w
kartotekach i katalogach. Przykładowo w dużej bibliotece książkę
możemy znaleźć na wiele sposób według nazwiska autora, tytułu i
tematu. Możemy poszukać interesujących nas patentów.
Duże
zachodnie koncerny miały opanowane przetwarzanie informacji w
związku ze swoją działalnością. Toteż komputeryzacja w USA i na
Zachodzie przebiega dość gładko w przeciwieństwie do krajów III
Świata, gdzie komputeryzacja znaczy tyle samo co korupcja i
marnotrawstwo. Na tle krajów Europy Zachodniej biurokracja w Polsce
nie jest rozbudowana. Natomiast komputer PC z drukarką jest pożywką
dla biurokracji.
Człowiek
cały czas przyjmuje informacje, podejmuje decyzje i działania. Jego
sensorami są wzrok, słuch, dotyk, powonienie, smak.
Inteligencja,wiedza i doświadczenie pozwalają podjąć dobrą
decyzję życiową. Najważniejsze to być we właściwym miejscu,
czasie i towarzystwie.
Radar
do pomiaru prędkości samochodów sprzężony z aparatem
fotograficznym rejestruje samochody przekraczające prędkość lub
obecne na skrzyżowaniu przy czerwonym świetle. Urzędnicy na
podstawie numeru rejestracyjnego samochodu wysyłają kierowcom
mandaty karne.
System
działa ze sprzężeniem zwrotnym. Ukarani kierowcy zmniejszę
prędkość samochodu i tym samym spadnie ilość wypadków,
zwłaszcza tych najgroźniejszych.
System
jest podany na automatyzacje. Zdjęcie samochodu wykonane aparatem z
sensorem CCD może być cyfrowe. Program komputerowy może niedługo
rozpoznać numer rejestracji z tablicy samochodu. Mandat do wykonania
- egzekucji można siecią komputerową przesłać do firmy
zatrudniającej niesfornego kierowce do potrącenia z pensji.
Poinformowanie o wykroczeniu firmy może mieć wzmożony efekt
dyscyplinujący kierowcę a przecież o to chodzi.
Bardzo
ważna jest informacja w wojnie. Stąd satelity obserwacyjne z
czułymi sensorami połączone z Ziemią łączami mikrofalowymi.
Dawniej wroga sondowało się rozpoznaniem w boju a dziś
fotografuje się go z satelity.
Jeden
z założycieli koncernu Intel Gordon Moor zauważył podwajanie
się liczby tranzystorów w największych układach scalonych co
około 18-24 miesięcy. Prawo to nazwano jego nazwiskiem.
Na
koszt układu scalonego składa się znaczny koszt opracowania (im
bardziej skomplikowany i innowacyjny jest układ ) i produkcji. Toteż
firmy produkujące na rynek preferują układy produkowane masowo.
Ale były i są koncerny które produkują układy scalone a w tym
sensory tylko dla własnej produkcji. Tak postępowały m.in.
koncerny IBM i Hewlett Packard. HP w 1976 roku wyprodukował 16
bitowy mikroprocesor MC5, którego koncern używał w swoich wyrobach
uważając że więcej zarobi na sprzedaży mikrokomputerów i
wyrafinowanych przyrządów pomiarowych stosujących ten procesor niż
na sprzedaży mikroprocesora.
HP
produkował na swoje potrzeby całkiem sporo układów scalonych.
Przykładowo do uniwersalnych liczników /częstościomierzy
produkował preskalery do 1.5 GHz oraz złożone układy licznikowe w
wariacji szybkiej technologi ECL. Produkował hybrydowe układy
mikrofalowe.
Z
kolei rynkowe układy produkowane dla HP mają jego oznaczenie co
utrudnia ustalenie tego co to jest za układ scalony.
W
spektrofotometrach można stosować fotodiodę ( fotopowielacz ) i
złożony mechaniczny skaner i filtr lub scaloną linijkę fotodiod
lub sensor CCD. HP w 1980 roku do spektrofotometru HP8450
wyprodukował scalone linijki z 211 fotodiodami oraz równoległym do
nich kondensatorami pamięciowymi o pojemności 10 pF oraz 211
kluczami MOS sterowanymi rejestrem przesuwnym załączającym co takt
zegara jeden z kluczy. Scalone linijki mają specjalne filtry
optyczne na zakres światła widzialnego lub UV. Spektrofotometr HP
8450 ma obie linijki. Na schematach pokazano aplikacje linijek w
przyrządzie.
Serie
produkcyjne wyrafinowanych przyrządów HP nie są długie i jak
widać opłaciło się wyprodukowanie na własne potrzeby sensorów
linijek fotodiod z akcesoriami. Projekt sensora jest względnie
prosty co rzutowało na koszt opracowania.
W
literaturze pierwszy układ scalony z fotodiodą i wzmacniaczem na
tranzystorach N Mosfet opisano w 1972 roku ! Zwróćmy uwag że
scalenie fotodiody i wzmacniacza eliminuje kosztowny kabel i
kosztowne złącza o bardzo małych upływnościach.
Siemens
oferuje układ scalony TFA1001W czyli fotodiodę scaloną ze
wzmacniaczem. Parametry tego układu są dość niskie ale układ
jest jak najbardziej użyteczny w podanych zastosowaniach.
Pojawiły
się scalone odbiorniki do systemów zdalnego sterowani pilotem IR
sprzętu RTV. Upraszcza to konstrukcje sprzętu RTV i potania jego
produkcje.
Hewlett
Packard oferuje układ odbiornika HFBR2416 ( nadajnik laserowy
HFBR2406 ) do światłowodu zawierający fotodiodę PIN scaloną z
przedwzmacniaczem szerokopasmowym o paśmie 100 Mbd o schemacie
pokazanym poniżej.
Pasmo
100MHz pozwala ( zależy od kodu kanałowego ) przesłać strumień
bitów 200 Mbps. W HFBR2416 zastosowano oczywiście wzmacniacz
transimpedancyjny. Wraz ze zwiększaniem rozdzielczości technologii
wzrośnie częstotliwość graniczna Ft tranzystorów a spadną ich
pojemności. Czyli przenoszone pasmo będzie rosło. Szumy systemu
można obniżyć stosując fotodiody lawinowe. Obecnie regulowane
napięcie wsteczne fotodiod lawinowych wynosi 30-150V ale w
przyszłości może on być nawet mniejsze od 5V ! Przyszły „HFBR”
będzie jeszcze miał scalony regulator napięcia zasilania fotodiody
lawinowej. Jakie częstotliwości graniczne mogą osiągnąć
tranzystory bipolarne i MOS ? Trudno powiedzieć ale na pewno większe
od 200 GHz.
Tranzystory
bipolarne w szybkich układach ECL mają częstotliwość Ft>5-10
GHz. Czyli w przyszłości pasmo łączy światłowodowych (
abstrahując od dyspersji światłowodów ) przekroczy 1 GHz potem 10
Ghz i będzie dalej rosło ale już wolniej no chyba że Ft
tranzystorów zdecydowanie przekroczy 200 GHz. .
Analog
Devices oferuje scalony sensor temperatury AD590, którego schemat
pokazano poniżej. Układ jest źródłem prądowym o czułości 1
uA/K mającym w temperaturze 298.2 K czyli 25C prąd wyjściowy 298.2
uA. AD590 jest wygodny aplikacyjnie. Układ umieszczony w małej
metalowej obudowie tranzystora pracuje w zakresie temperatur
-55...150C.
Jest
pewne że mikroelektroniczne sensory ciśnienia KP i sensory pola
magnetycznego KMZ zostaną niedługo scalone ze wzmacniaczami co
uprości ich zastosowanie pozwalając wyjściowy sygnał z sensora
wprost podać do przetwornika A/D mikrokontrolera.
Opracowanie
niewyrafinowanego układu analogowego nie jest specjalnie trudne.
Koniem roboczym jest w tym obszarze para różnicowa tranzystorów.
Innymi klockami do budowy są źródła i lustra prądowe. Tworzony
układ można zasymulować na komputerze PC i zbudować z dyskretnych
elementów Q,D,R,C model do badań.
Firma
EXAR produkuje matryce komórek analogowych do skonfigurowania. Są
dostępne całkiem interesujące przykłady. Tak więc opracowanie
scalonego z sensorem interfejsu nie jest żadnym cudem. Większym
problemem jest technologia którą da się wytworzyć sensor i jego
scalony interfejs.
Zdaniem
autora przyszłość należy do technologii CMOS która jest bardzo
uniwersalna. Nadaje się ona do wszystkiego a w tym do sensorów ze
zintegrowanym interfejsem.
Koncern
HP jako pierwszy zauważył ( to znaczy wyczuł w tym trend rozwoju i
interes ) że wyniki pomiarów dokonywanych przez przyrządy są
dalej przetwarzane przez człowieka lub komputery. Obecność
człowieka w przekazywaniu odczytywanych danych z przyrządu
pomiarowego do komputera jest nonsensem. Od 1967 roku odział HP
Dymec produkuje 16 bitowe minikomputery 2116 dedykowane głównie do
połączenia oferowanymi interfejsami z przyrządami pomiarowymi HP
ale nie tylko HP. Minikomputery te zaczynały karierę w
laboratoriach naukowych, badawczych i przemysłowych. Dopiero później
w intencji HP minikomputery HP2100 i kolejne rodziny ( produkowane do
dziś dnia ) z tą samą listą rozkazów stały się maszynami
ogólnego przeznaczenia do wszystkiego.
Stosowanie
komputerów w laboratoriach badawczych i w przemyśle daje konkretną
wartość dodaną. Natomiast zastosowanie w Polsce komputerów PC w
księgowości jedynie powiększy inflacje jako że wykonanie nowej
kalkulacji cen wyrobów staje się trywialne.
Komputer
PC ma sporo wad. System operacyjny DOS jest niesieciowy ! Trudność
budowy kart jest spora. Ciasne są ograniczenia hardwarowe. Ale
komputer jest tani jak barszcz i rośnie oferta kart interfejsów.
Już jest dużo użytecznych programów na komputer PC.
Warto
zauważyć ze przyrządy pomiarowe używane w serwisie czyli w
naprawach i przeglądach nie potrzebują interfejsów do komputera.
Technik lub inżynier od razu analizuje wynik pomiaru korzystając z
materiałów technicznych producenta. Na zachodzie jest to Service
Manual.
Coraz
popularniejsze są kody kreskowe stosowane na towarach konsumpcyjnych
i zaopatrzeniowych. To ta sama melodia co z przyrządami pomiarowymi
i zbędnym człowiekiem przenoszącym dane. Poniżej schemat czytnika
kodu kreskowego ( Bar code ) koncernu HP wykonanego w postaci pióro
– podobnej.
W
końcówce pióra jest oświetlająca dioda LED i fotodioda odbiorcza
wraz z soczewką. Sygnał z fotodiody podany jest do wzmacniacza w
aranżacji transkonduktancyjnego A1 o transimpendancji 10 Mohm.
Sygnał 100 nA z fotodiody zamienia się w sygnał 1V na wyjściu
wzmacniacza A1. Diody D3 i D4 wraz z kondensatorem C1 tworzą
prostowniki szczytowe zaś wzmacniacz A2 objęty dodatnim
sprzężeniem zwrotnym na rezystorach R2 i R3 jest „procesorem”
sygnału niezawodnie wyłapującym przejścia na czytanym pasku.
Tranzystory wyjściowe Q1 i Q2 zmniejszają czasy trwania zboczy
sygnału cyfrowego jako że użyty podwójny wzmacniacz operacyjny w
8 pinowej obudowie jest dość wolny. Układ jest prosty i działa
całkiem niezawodnie. Eliminuje wpływ oświetlenia postronnego.
Jednak
do cyfrowej „kasy” sklepowej taki czytnik jest mało przydatny.
Potrzebny jest skaner który już po mało dokładnym zbliżeniu
towaru z etykietą z kodem paskowym zadziała poprawnie.
Czy
sensory powinny mieć zintegrowane przetworniki A/D i interfejsy
cyfrowe ? Aby udzielić trudnej odpowiedzi na to pytanie trzeba na
sprawy spojrzeć z właściwej perspektywy.
Mikrokontroler
w odbiorniku TVC dekoduje sygnały zdalnego sterowania z odbiornika
podczerwieni. Kontrast, jaskrawość, nasycenie koloru oraz głośność
regulowane są napięciami stałymi podanymi do układów
wykonawczych. Sygnały PWM z mikrokontrolera są odfiltrowane
dolnoprzepustowo i regulują kontrast, jaskrawość, nasycenie koloru
oraz głośność. Sygnał PWM do napięciowego przestrajania głowicy
VHF-UHF podany jest do tranzystorowego inwertera zasilanego napięciem
30V i po filtracji dolnoprzepustowej przestraja głowice.
Na
początku lat osiemdziesiątych rozpoczęto produkować tanie
preskalery pracujące na zakresie UHF i scalone syntezery
częstotliwości z pętla fazowa PLL. Głowica telewizyjna z
syntezerem częstotliwości jest o circa 30% większa gabarytem niż
bez syntezera PLL przestrajana napięciowo. Jest też znacznie
droższa. Oczywiście syntezer PLL musi otrzymywać informacje od
mikrokontrolera rządzącego odbiornikiem TVC.
Dwukierunkowa
szeregowa magistrala
I2C
(IIC, Inter Integrated Circuit )
została opracowana przez koncern Philips w 1982 roku.
Bus wykorzystuje dwie dwukierunkowe linie: SDA, danych ( Serial Data
Line) i SCL, zegara (Serial Clock Line). Układy scalone ( ale
teoretycznie też urządzenia ) na obydwu liniach pracują w systemie
Open Collector z rezystorami podciągającymi do zasilania 5V
typowej wartości 4.7K. Masterem w systemie jest mikrokontroler a
układy wykonawcze pracują jako Slave. Układy wykonawcze w TVC to
syntezer częstotliwości w głowicy VHF-UHF, „procesor” Video i
„procesor” Audio. Philips z interface I2C oferuje także wykonane
w technologii CMOS zegar czasu rzeczywistego ( RTC – Real Time
Clock ) z pamięcią RAM podtrzymywany bateryjnie, pamięć EEprom (
do nieulotnego pamiętania parametrów nastrojonych programów),
przetworniki A/D ( sygnał magistrali SCL taktuje rejestr
aproxymacyjny tworzący z przetwornikiem D/A przetwornik A/D ) i D/A,
ekspandery – porty równoległe, sterowniki wyświetlaczy LCD,
dekodery Teletekstu. Także układy w odtwarzaczu CD i wieży Audio
są zarządzane przez mikrokontroler z magistralą I2C.
W
układach cyfrowych wykonanych w technologii CMOS realizacja
interfejsu I2C jest oczywista natomiast w wykonawczych analogowych
układach bipolarnych interfejs I2C jest zaimplementowany w logice
I2L. Prosty interface I2C – odbiornik wymaga w technologii I2L
około 300 tranzystorów a więc sporo w porównaniu z częścią
wykonawczą układu analogowego ale pamiętać należy ze tranzystor
logiczny może być jak najmniejszy i mało powtarzalny wymiarem w
odróżnieniu od tranzystora w układzie analogowym. Relatywnie ilość
tranzystorów interfejsu I2C w procesorze CMOS Teletekstu jest
znikoma.
Motorola
w 1985 roku wypuściła układy scalone do konkurencyjnej magistrali
szeregowej Serial Peripheral Interface (SPI).
Wróćmy
do przyszłościowego sensora z interfejsem szeregowym.
Nowoczesne
mikrokontrolery mają wbudowany 10 bitowy przetwornik A/D z
wejściowym multiplexerem.
N.B.
Mikrokontroler z wbudowanym przetwornikiem A/D bywa tańszy niż sam
podobny przetwornik A/D co pokazuje miażdżącą przewagę i siłę
technologi CMOS i odchodzącej NMOS.
W
samochodowym silnikowym ECU kondycjonery sygnałów z analogowych
sensorów są ekstremalnie zoptymalizowane i bardzo proste.
Rozwiązania te są naprawdę dobre !
Przy
stale rosnącej rozdzielczości technologi CMOS przetwornik A/D i
interfejs szeregowej magistrali będą w końcu zajmować w
„sensorze” maleńką powierzchnie podczas gdy powierzchnia
sensora ( na przykład fotodiody ) w wielu wypadkach nie może być
zmniejszona z uwagi na utratę czułości i szumy.
Linijka
kilkuset fotodiod winna też mieć dla wysokiej czułości i małych
szumów scalony wzmacniacz operacyjny w wejściem MOS lub JFet jako
że połączenie sygnałowe kablem lub ścieżka z zewnętrznym
wzmacniaczem jest bardzo szkodliwe.
NB.
Wzmacniacze nie muszą mieć zabezpieczonych wejść bowiem układy
razem wspólnie scalone spełniają przy okazji tą role. Pozwala to
bardzo obniżyć prąd polaryzacji wejść. Często „wbudowane”
wzmacniacze operacyjne są mocno uproszczone na tle zwykłych
samodzielnych wzmacniaczy.
Dodanie
do linijki fotodiod ze wzmacniaczem przetwornika A/D i interfejsu
znacznie podniosłoby atrakcyjność takiego sensora wprost
dołączonego do szeregowej magistrali SPI lub I2C wydajnego
mikrokontrolera.
Dodawanie
jednak przetwornika A/D i interfejsu szeregowego do prostego sensora
wydaje się obecnie nieracjonalne.
Mechanizacja
->> Automatyzacja i sensory w niej. Temat do rzetelnego
omówienia wymaga kilku tysięcy stron narracji. Tylko hasłowo i po
łebkach.
Mechanizacja
- Współcześnie znanych jest blisko 8 tysięcy rodzajów maszyn.
Praca maszyn jest bardzo tania na tle pracy człowieka.
Maszyny
tekstylne były twarzą początka Rewolucji Przemysłowej.
Coraz
bardziej dostępna stal zastąpiła w konstrukcji maszyn drewno
wprowadzając nową jakość.
Produkowano
maszyny rolnicze.
Maszyna
do ciągłej produkcji papieru zaczęła pracować w 1801 roku !
W
połowie XIX wieku popularne stają się maszyny do przemysłu
spożywczego.
Masowo
produkuje się prasy, tokarki, frezarki.
Lokomotywy
i kolej , turbiny parowe, elektrownie, maszyny elektryczne.
Maszyna
do zwijania papierosów pracuje od 1881 roku.
W
XX wieku maszyny stale się komplikują.
Szlachecka
Polska była państwem strasznie prymitywnym i zapóźnionym
cywilizacyjnie o setki lat. A wtedy w świecie dogorywającej Polski
pojawia się... automatyzacja:
-W
1771 roku Richard Arkwright stworzył pierwszą automatyczną
przędzalnię napędzaną energią wodną.
-Oliver
Evans w 1785 roku stworzył automatyczny młyn do produkcji mąki.
Był to pierwszy całkowicie zautomatyzowany proces przemysłowy.
Przekaźnikowe
układy logiczne sterujące maszyny w automatyzowanych procesach
pojawiają się na przełomie XIX i XX wieku. Pracują skomplikowane
automatyczne ( tarcza numerowa pojawia się w telefonie w 1892 roku )
centrale telefoniczne ale wcale tak szybko się nie popularyzują. W
1905 roku pracuje maszyna do automatycznej produkcji butelek
zastępująca kompanie ludzi. W latach dwudziestych pojawią się
Sterownie ( Control Room ) gdzie operatorzy zdalnie prowadzą
obserwowany proces przemysłowy.
W
latach trzydziestych w zakładach Forda trwają próby z
automatyzacją produkcji...
Od
początka lat sześćdziesiątych duża automatyzacja jest
komputeryzowana. Rośnie liczba regulatorów, sterowników PLC,
maszyn sterowanych numerycznie NC a potem CNC i robotów.
Budowa
i rodzaj automatycznej maszyny i kontrolowanego procesu narzuca wybór
sensorów. Niemniej zawsze istnieje pole manewru i swobody.
Rozwój
mikroelektroniki stwarza jednym ogromne szanse a innym zagrożenia.
Jeszcze dwadzieścia lat temu komputery i minikomputery były
okropnie drogie, skomplikowane i powolne.
Komputery
rodziny IBM S360 mógł wyprodukować tylko potężny koncern
dysponujący miliardami dolarów kapitału. IBM maszyny zbudował na
układach hybrydowych nazwanych SLT – Solid Level Technology -
które sam produkował w zautomatyzowanym procesie. Tylko najszybsze
modele komputerów oparte były o scalone układy monolityczne ECL,
które też IBM produkował dla siebie. W zestawie komputerowym były
setki różnych płyt drukowanych toteż IBM stworzył dla siebie
program komputerowy do ich projektowania. Backplane szafy procesora
miał kilometry przewodów toteż owijanie ich na kołkach IBM
zautomatyzował głównie dla eliminacji pomyłek. W latach
sześćdziesiątych IBM produkował do 55-60% mocy wszystkich
komputerów w świecie. Stąd komputer nazywany był często IBM. Ale
i tak na zapowiedziane 20 typów komputerów S360 wypuszczono 14,
część w znikomej ilości. S360 miało oznaczać 3 generacje maszyn
na lata 60 - te lub uniwersalność jak kąt 360 stopni.
Komputery
Riad 1 RWPG to logiczna kopia ( zgodność listy rozkazów i
możliwość używania systemu operacyjnego i programów) maszyn S360
zbudowana na układach TTL. Nawet dysponując schematem ideowym płyt
z SLT nie można go wprost przełożyć na TTL jako ze SLT były
dalece odmienne funkcjonalnie.
Obecnie
praca w świecie jest podzielona a technologia zdemonopolizowana i
zdemokratyzowana. Wiodącym w świecie dostawcą technologi
fotolitograficznej są firmy z Holandii. Coraz lepsze procesory
rodziny '86 produkuje Intel i inne licencjonowane koncerny. Koncerny
japońskie i koreański Samsung produkują pamięci DRAM. Układy
peryferyjne produkuje ponad 10 koncernów. Dysk HD produkuje
conajmniej 7 firm. Firmy z Tajwanu produkują płyty główne i karty
rozszerzające do komputera PC. Do wyboru jest kilka systemów
operacyjnych ale w praktyce niestety monopol ma MS DOS.
Gro
nakładu pracy nad stworzeniem silnikowego ECU przypada obecnie na
program i to daje nam ogromną szanse bo potrzebni są ludzie a nie
miliardy dolarów na bajecznie skomplikowany hardware. Zespół który
stworzy ECU do silnika samochodu osobowego szybko może zrobić ECU
do silnika Diesla ( produkujemy dużo statków ) albo silnika
lotniczego.
Tylko
że w ramach dogasającej II Zimnej Wojny jesteśmy odcięci od
świata i nie wolno nam kupować mikroelektroniki na światowym rynku
a embargo na technologie mikroelektroniczną sprawia że technologia
ta w RWPG stoi w miejscu od lat.
Każdy
produkt rynkowy ma trzy fazy życia. W pierwszej fazie innowacyjny
wyrób produkuje jeden koncern i cena poszukiwanego na rynku wyrobu
jest wysoka. W drugiej fazie życia wyrób standardowy produkuje dużo
firm z I Świata. Cena spadła ale produkcja jest wysoko rentowne. W
III fazie życia za produkcje biorą się kraje III Świata a kończą
produkcje kraje I Świata. Przestarzały wyrób jest tani a nawet
bardzo tani.
Jak
widać z tego dobrobyt polega na nowoczesnej produkcji. Nowoczesne,
skomplikowane wyroby to duża marża i wynagrodzenia.
Polska
ma duży potencjał wzrostu gospodarczego ale należy go odblokować
i uruchomić.
Bardzo dobry wpis. Pozdrawiam serdecznie.
OdpowiedzUsuń