sobota, 14 października 2023

Archiwum. Automatyzacja realna czyli nieznana. Wstep

Archiwum.  Automatyzacja realna czyli nieznana. Wstep
 System gospodarczy ma dostarczać potrzebne towary i usługi. Tradycyjnie gospodarkę dzieli się na  rolnictwo, przemysł i usługi.
Zielona Rewolucja mocno zmniejszyła zatrudnienie w zmechanizowanym, uprzemysłowionym, chemicznym  rolnictwie i jego udział w kreacji dochodu narodowego jest malejący.
W krajach rozwiniętych udział przemysłu w dochodzie narodowym osiąga płaskie maksimum a dalej powoli spada na rzecz usług. Kraj średniej wielkości który nie potrafi dla siebie wytworzyć w miarę nowoczesnej broni nie ma obecnie racji bytu. Historia upadłej Polski międzywojennej była symptomatyczna.
Miejsce pracy w prostych usługach jest tanie ale na przykład w ochronie zdrowie nowoczesne urządzenia diagnostyczne są bardzo drogie. Pojęcie usług jest więc bardzo niejednoznaczne.
Tak czy owak  fundamentem bogactwa i siły był i nadal jest nowoczesny przemysł w którym miejsce pracy jest często drogie a nawet bardzo drogie. To że obecnie mocno osłabła wytwórczość w USA ( ogromnie wzrósł import ) wcale nie oznacza szybkiego kresu ich potężnej wieloaspektowej władzy nad światem. Po II Wojnie produkcja przemysłowa USA stanowiła ponad 60% produkcji światowej ! 
Współcześnie ( na obecnym etapie rozwoju cywilizacji) wysokie marże i zyski osiąga się w świecie ( pomijając państwa surowcowe ) tylko na projektowaniu i produkcji wyrobów nowoczesnych i złożonych. Choć blok krajów RWPG połowicznie izoluje się od systemu świata to prawidłowość ta że duże korzyści i rozwój daje praca  głową a nie rękami dotrze i do nas.
RWPG miała stanowić namiastkę systemu światowego ale Związek Radziecki niezadowolony z jej funkcjonowania żądaniami zapłaty w dolarach za swoje surowce i materiały faktycznie RWPG już rozmontował.

Automatyzacja procesów ( ciągłych / wsadowych / montażu ) jest ważna ale najważniejszy jest oczywiście sam automatyzowany proces i cudów tu nie może być. Polska ciężka chemia oparta o węgiel kamienny ma nieusuwalną wadę strukturalną. Jest przestarzała i zupełnie niekonkurencyjna w stosunku od chemii opartej o ropę naftową i gaz ziemny  w obecnych  światowych realiach. III Rzesza odcięta przez Aliantów od ropy naftowej musiała używać w ciężkiej chemii swojego węgla ale do wyprodukowania 1 litra benzyny silnikowej trzeba zużyć 7 kg węgla kamiennego i dewastować środowisko naturalne.   

W najbardziej innowacyjnych firmach świata nakłady na Badania i Rozwój ( Development & Research ) sięgają aż 15-20 % przychodów ze sprzedaży. Dział badawczy i konstrukcyjny jest fundamentem takiej firmy. Tylko część projektów dociera do fazy produkcji i rynku. Badania i Rozwój sa ryzykowne ale bez nich nie ma rozwoju. Stać  na nie duże stabilne firmy z dobrym zapleczem finansowym. Oczkiem w głowie rządów Zachodu są koncerny, którym rządy są w stanie wiele wybaczyć. Bez nich bowiem nie ma nowoczesności i rozwoju. Koncerny organizują wokół siebie całą gospodarkę i modernizują ją.  
W firmach prowadzących starymi technologiami produkcje niskomarzową nie ma wcale D&R lub działania takie są tylko pozorowane. Pozorowana jest też jako biurokracja nauka w prawie wszystkich  zapóźnionych cywilizacyjnie państwach.
Coraz większy udział w kosztach opracowania urządzenia elektronicznego ma stworzenie programu dla wbudowanego mikrokontrolera lub mikrokomputera. Gdy komputery były szalenie drogie, miejsce pracy programisty było drogie ale obecnie na Zachodzie jest już  jednym z tańszych. Nie produkując nowoczesnej elektroniki i wbudowanych programów dla niej nie stwarzamy  dobrych miejsc pracy o bardzo wysokich dochodach i nowoczesnej gospodarki.
Mająca 5 lat rodzina komputerów zgodnych z IBM PC wywróciła wszystko do góry nogami. Do niedawna proste mikrokomputery ( najsłabsze z tych rodzin minikomputerów ) rodziny PDP-11 i VAX kosztowały ponad 30 tysięcy dolarów. Obecnie PC - składak kosztuje w hurcie w modułach (Tajwan) 1000 dolarów a ich "moc" szybko rośnie. Jest już ich dużo więcej niż sprzedano w ciągu 15 lat maszyn PDP-11 i VAX. Mimo oczywistego, omawianego  trendu w ZSRR i NRD nadzieje są dalej pokładane w kopiach modeli PDP-11 i VAX.
W związku z sukcesem komputerów PC niszowe dotychczas firmy elektroniczne precyzyjnej elektroniki analogowej (jak Analog Devices i Burr Brown ) zmieniają profil działalności z małoseryjnej drogiej produkcji na tańszą produkcje masową ale nadal wysokiej i bardzo wysokiej jakości. Wniosek z tego jest taki że należy się spodziewać dalszej popularyzacji komputerów PC i kart rozszerzających możliwości ( analogowe i binarne I/O ) do nich.

Względna wartość produkcji ( do Dochodu Narodowego) elektroniki w I Świecie ciągle rośnie a jej realna cena biorąc pod uwagę inflacje i rosnącą funkcjonalność spada. Sensory - transmitery są drogie i mogą kosztować do 1000 dolarów a wyjątkowo więcej. O cenie sensora - stricte jak termopara i RTD PT100 decyduje głównie solidna przemysłowa obudowa ale są one stosunkowo tanie.

 Pierwszy system DDC ( Direct Digital Control ) z prostym minikomputerem tranzystorowym firmy TRW zastosowano w  1959 w rafinerii "Texaco Port Arthur" w Texasie. System miał 10 bitowy przetwornik ADC obsługujący multiplexerem do maksymalnie 1024 wejść analogowych z szybkością skanowania 1900 wejść na sekundę. Mankamentem systemu z centralnym komputerem jest konieczność stosowania pełnego rezerwowego systemu sterowania analogowego PID i sterowania logicznego działającego po upadku komputera w dodatku współpracującego z komputerem. Specjalny regulator PID współpracujący z komputerem systemu DDC był nieomal dwa razy droższy od zwykłego regulatora. Stosowano podwójne sensory przyłączone do regulatora analogowego i do centralnego systemu DDC.
Drugą poważną wadą dużego systemu DDC  są długie połączenie centralnego komputera z sensorami i aktuatorami.
Polski system DDC z komputerem Odra 1325 jest nieudany.
Pierwsze systemy DCS (Distrubuted Control System) wypuszczono (m.in TDC 2000 ) w 1975 roku. Było to możliwe ponieważ pojawiły się monolityczne  mikroprocesory oraz peryferia i pamięci ROM oraz RAM.   
Kontrolowany proces to umownie poziom 0. Samodzielne operacyjnie sterowniki DCS ( pełnią rolę regulatorów także w skomplikowanych konfiguracjach oraz mniej rolę  sterowników logicznych PLC  ) stanowią poziom 1 systemu. Są połączone łączem szeregowym z mini-mikrokomputerami kierowania poziomu 2. Poziom 3 to kontrola produkcji a poziom 4 planowania produkcji. Komputerów jest w tej piramidzie ku górze coraz mniej. Popularność w tych zastosowaniach zdobyły maszyny PDP-11 i VAX ale obecnie są szybko wypierane przez tanie i lepsze komputery zgodne ze standardem PC IBM.
Ilość analogowych i binarnych I/O w sterowniku DCS jest taka że personel musi sobie poradzić z awarią sterownika przechodząc na lokalne sterowanie ręczne do czasu naprawy systemu DCS. Gdy jest to wymiana kontrolera to czas jest krótki. Kontrolery DCS do zastosowań krytycznych mogą mieć redundancje.
Basic Controller - Total Distributed Control 2000 czyli BC TDC 2000 Honeywell może obsługiwać 8 złożonych petli regulacji PID. Każdemu z 8 bloków programowych można przyporządkować funkcje wybrane z 28 zdefiniowanych algorytmów a w tym 10 odmian regulatora PID. Te funkcje to m.in. funkcje arytmetyczne, wybieraki, przełączniki, inercja... Nie ma tam niczego nadzwyczajnego ale oprogramowanie jest zrozumiałe i ma ugruntowaną dobrą ocenę. Z tego względu system, mimo iż jest już sprzętowo mocnoprzestarzały, jest dalej produkowany i sprzedawany. Jest objęty embargiem dla krajów bloku RWPG.

W urządzeniach DCS  istotna jest proporcja analogowych i binarnych wejść i wyjść. Na 3-4 wejścia analogowe AI ma przypadać circa jedno wyjście analogowe AO oraz 3n (n>=1) wejścia binarne DI i 3n wyjście binarne DO. Binarnych I/O jest niewiele ( wobec proporcji z kontrolerami PLC z funkcja PID ) w stosunku do wejść analogowych dlatego że DCS tylko ubocznie zajmuje się sterowaniem logicznym. W dużych urządzeniach ilości są wielokrotnością liczby 8. Przykładowo przy AI=16 DI=DO=32 a AO jest 4 lub 8.
AI i AO muszą być dobrze zabezpieczone jako że bez tego ich żywotność jest w trudnych warunkach przemysłowych za krótka. Lepsze zamiast mało trwałych przekaźników są na DO zabezpieczone przed przeciążeniem tranzystory do obwodów 24 Vdc i triaki do obwodów 110-220 Vac. Załączane w Zerze triaki praktycznie nie generują przy operacjach zakłóceń radiowych co jest zaletą.
Optymalna ilość I/O dla urządzenia DCS zależy od przestrzennej gęstości urządzeń I/O w obiekcie. Przy bardzo dużej ilości I /O i długich połączaniach praktycznie wracamy do idei DDC. Optymalną ilość  I/O dla urządzenia DSC wyznacza kompletny rachunek kosztów !  Obecnie ilość AI dochodzi do 32 i większa ilość jest raczej niecelowa.
Z kolei przy nadmiernie dużej ilości urządzeń DCS o małej ilości obsługiwanych I/O nadmiernym kosztem stają się liczne linie komunikacji szeregowej. Urządzenie DCS powinno przede wszystkim obsługiwać skomplikowane urządzenie lub grupę mocno ze sobą współpracujących - powiązanych urządzeń.    

Zwróćmy uwagę na analogie ewolucji systemów politycznych państw i systemów sterowania: analogowych, DDC i DCS. Początkowo obszary "państwa" działały wyłącznie samodzielnie jak system analogowy. Centralizacji państw i rządom absolutystycznym odpowiada model DDC. W swoim czasie model absolutyzmu oświeconego dał krajom przyśpieszony rozwój gospodarczy i awans cywilizacyjny. Współcześnie są to państwa nazwane jako unitarne. Faszystowska  III Rzesza była państwem unitarnym ale obecna demokratyczna RFN jest państwem federalnym jak DCS z podziałem zadań w landach i w państwie. Państwem federalnym są USA z dość samodzielnymi stanami, mającym własny budżet, administracje i sądownictwo. Władza federalna jest w Waszyngtonie ale jej ograniczone agendy funkcjonują we wszystkich stanach. Federalny Związek Radziecki ma Republiki i władze centralną w Moskwie. Znamienne jest że w wielkich obszarowo / ludnościowo państwach lepiej sprawdza się model federalny czyli DCS a nie centralny czyli DDC.
Z tej analogi wypływa ciekawy wniosek - urządzenia DCS mają robić wszystko co jest możliwe a komputery mają robić tylko to czego kontrolery DCS nie mogą zrobić z braku dostępu do danych ( także od innych urządzeń DCS w poziomie) przy czym polecenia operatora przy komputerze to też te dane operacyjne.  

Czas eksploatacji systemów automatyki przemysłowej wynosi typowo ponad 15 lat. Często omijany jest teraz etap systemów DDC i starą automatykę analogową wymienia się przy gruntownej  modernizacji obiektu  na systemy DCS. 
Na Zachodzie systemy DCS szybko opanowały nowe i modernizowane:
-Zakłady petrochemiczne i rafinerie
-Zakłady chemiczne
-Elektrownie cieplne, nuklearne i wodne
-Systemy przesyłu i dystrbucji energii. Tu są stosowane  rozwiązania dedykowane.
-Papiernie
-Uzdatnianie wody na różne potrzeby 
-Komunalne i przemysłowe oczyszczalnie ścieków
-Przetwarzanie żywności a w tym cukrownie
-Farmaceutyka
-Kopalnie
-Huty metali i metalurgia a w tym zautomatyzowane Ciągłe Odlewanie i zintegrowane z nim  walcowanie wyrobów gotowych
-Zautomatyzowane fabryki samochodów

W obiektach tych najważniejsze są, dominują kontrolowane dość wolne procesy ciągłe ale w fabrykach samochodów i hutach z COS dominują PLC. Część z wymienionych nowoczesnych obiektów nie może działać bez systemu cyfrowego ze złożonym programem. 

Urządzenia DCS mają funkcje sterowania logicznego jak PLC ale zadanie sterowania logicznego to margines ich aktywności. 
Sterowniki PLC coraz częściej mają też funkcje regulacji ciągłej i urządzenia się do siebie upodobniają. 

Znaczną część kosztu systemu DCS stanowi jego oprogramowanie. W świecie normą jest już w 100% kompletny towar i usługa. Dotyczy to w pełni systemów DCS. Ale dane konfiguracyjne (  to jest w gruncie rzeczy interpretowany lub skompilowany program ) wchodzące w skład końcowego program  wpisuje już budujący i uruchamiający obiekt.

W przypadku DCS TDC-2000 tekstowa (brak grafiki) prezentacja stanu obiektu na ekranie komputera była bardzo prosta ale przemyślana i łatwa do naśladowania. Ale obecnie we wszystkich współczesnych rozwiązaniach obiekt ma reprezentacje graficzną ( kolory w obiekcie zależne są od stanu, Alarm to kolor Czerwony ) z danymi z sensorów o jego stanie.

Komputery systemu OS360/370/obecnie numery przypadkowe, są atrakcyjne także siłą swojego oprogramowania ale obecnie nakłady poniesione przez 20 lat rozwoju na systemy operacyjne tej rodziny przebiły kwotę  2 mld dolarów. Po drugiej stronie mamy prosty system operacyjny i interpreter Basica w ZX Spectrum umieszczone w pamięci 16 Kb a w prostszym poprzedniku ZX 81 całość zajmowała tylko 8 Kb pamięci ROM.
Dobrą praktyką jest udostępnianie przykładów programów i testu źródłowego procedur bibliotecznych. Badania wskazują że inżynierowie - programiści często zaczynają od przerabiania przykładów i dostosowania bibliotek pod swoje potrzeby. A Biblioteka to przecież zastosowana praktycznie bezcenna Wiedza.
Zatem do systemu DCS trzeba załączyć wielką ilość przykładów. Autorowi udało się zebrać  z zachodniej literatury prawie 800 przykładów układów regulacji i sterowania do DCS i symulacji.
Wielkim atutem systemu DCS może być funkcja adaptacyjnego samonastrajania regulatorów ! 
Program dla DCS może być skompilowany lub DCS może mieć interpreter. Identycznie jak w komputerach interpreter jest znacznie wolniejszy ale kompilacja wymaga od programisty więcej czynności. Program może być załadowany do pamięci CMOS podtrzymywanej napięciem z trwałej bateryjki lub do typowej pamięci Eprom 27XX w podstawce, która przed kolejnym zapisem wymaga jednak skasowania promieniami UV. Możliwe jest jednak etapami dopisywanie kolejnych informacji ( taka procedure stosuje HP ) w pamieci Eprom. Po Resecie program DCS musi określić gdzie jest koniec informacji zapisanych w pamięci Eprom i musi włączyć do użytku nowe zasoby. Oprogramowanie podstawowe DCS a w tym funkcje biblioteczne może być w pamięci ROM rozmiaru >32 Kb.

O ile wejścia i wyjścia binarne ( określenie "cyfrowe" jest niepoprawne ) w sterownikach DCS są tanie to realizacja wejść analogowych jest droga. Trudne wejście analogowe może kosztować do 10 x razy tyle co wejście binarne.  Najpopularniejsze są współpracujące z DCS sensory-transmitery do pętli 4-20 mA. Zaletą jest wyjątkowa prostota i unifikacja  wejść analogowych w tym systemie ! Zupełnie wystarczająca jest dokładność i rozdzielczość 12 bitowa ADC ale czasem nawet 10 bitów jest wystarczające.
Dedykowane wejścia do tanich sensorów PT100 i termopar ( także potencjometry) mają sens gdy jest ich w grupie odpowiednio dużo. Najmniej 8-16.
 Wyjścia są binarne a w tym krokowe regulatorów PI/PID  i analogowe 4-20 mA. Wyjście analogowe może być odfiltrowanym dolnoprzepustowo filtrem RC wyjściem PWM mikrokontrolera

Atrakcyjny system DCS musi być przyjazny i łatwy do zapoznania się z nim w lokalu inżynierów firmy przemysłowej. Nie żądajmy rzeczy niemożliwych. Jeśli inżynierowie firmy nie mają podstawowej wiedzy i umiejętności to trzeba ich kształcić u producenta systemu DCS.   

Koszt mikroelektroniki użytej do produkcji cyfrowych regulatorów-sterowników  DCS lub kontrolerów PLC nie przekracza 12-18 % końcowej ceny urządzenia. Sytuacje krajów RWPG dołuje przestarzała mikroelektronika lub brak jej produkcji. Ambitny program mikroelektroniczny i produkcje ma tylko NRD. Zachodnia blokada technologiczna ( w rzeczywistości USA ) bardzo tym krajom szkodzi. Zimna Wojna wydaje się dogasać ale może z czasem narosnąć za  duża przepaść w technologi i wiedzy. Później nie da się wsiąść do pędzącego już pociągu.

 W systemach automatyki ( sterowanie, regulacja, monitoring , alarm ) informacje o stanie zmiennych procesowych z obiektu zbierają sensor, transducer lub transmitery, czujniki lub elektryczne przetworniki pomiarowe. Repertuar nieścisłych definicyjnie nazw jest więc spory.
Sensory - transmitery, szczególnie do dwuprzewodowej pętli prądowej 4-20 mA, są drogie i na rynku światowym jest to wyrób poszukiwany a wielkich producentów jest w sumie niewielu.
Najwięcej jest używanych sensorów temperatury, ciśnienia, przepływu i poziomu. Indukcyjny sensor zbliżeniowy jest binarny. 

Sensory mają mnóstwo zastosowań.
Przykładowo w  wagach stosowane są mostki tensometryczne a w wagach na małe zakresy mostki piezorezystancyjne i "wagi prądowe". 
W sterowaniu procesem produkcyjnym stosowane są wagi zbiornikowe, wagi samochodowe i kolejowe oraz systemy z wagami na taśmociągach. 
Wagi pracują w urządzeniach dozowania i pakowania.
Masowo wagi pracują we wszelkim handlu choć trendem jest konfekcjonowanie towarów spożywczych.
W laboratoriach wagi stosowane są w badaniach eksperymentalnych, w testach i w pracach nad nowym produktami.
Wagi drogowe monitorują ruch i wyłapują przeładowane samochody niszczące drogi.
Cześć tych wag może pracować z linią dwuprzewodową 4-20 mA ale dokładniejsze wagi muszą mieć jednak komunikacje cyfrową.

Jednym z celów profesjonalnego stowarzyszenia " Instrument Society of America" czyli ISA jest edukacja. Zatem aby nie wywarzać otwartych drzwi warto zapoznać się z wartościowymi publikacjami ISA.

 Wynalazkiem wszechczasów są tranzystory. Tranzystor bipolarny (1948) i Mosfet (1959) wynaleziono w potężnej (prywatnej) amerykańskiej Bell Laboratories. Odkrycie nie było żadnym przypadkiem bowiem aktywnego elementu który zastąpi dużą, energożerną i zawodną lampę elektronową  szukano tam od ponad 10 lat. Idea tranzystora FET była znana od 1936 roku ale nie było technologii do wytworzenia użytecznego tranzystora polowego. BL ma największą ilość Noblistów ze wszystkich firm świata i większą niż większość państw. Zakres prac wykonywanych w BL był bardzo szeroki - od badań podstawowych aż po potężne ultranowoczesne projekty produkcyjne. BSTJ ( Bell System Technical Journal ) to najlepsze czasopismo naukowo - techniczne świata.  Lektura BSTJ uświadamia jak długa jest droga od ważnego wynalazku do gotowego produktu. To  praca zastępu fizyków, chemików i różnych specjalności inżynierów.
Polska technologie mikroelektroniczną kupiła we Francji gdy było jasne że sami nic nie potrafimy a prymitywne tranzystory germanowe były odrażająco przestarzałe. Wcześniej linie technologiczną do produkcji chipów krzemowych tranzystorów KT315 ( nasze oznaczenia BF519,520,521 i BC527,528 ale w obudowach metalowych a nie plastikowych, to odpowiedniki liter  w oznaczeniu tranzystora KT315 w trochę dziwnej obudowie plastikowej  ) kupiliśmy w ZSRR. Gdy po 1978 roku brakło dewiz rozwój polskiej mikroelektroniki stanął w miejscu.
System społeczno - gospodarczy ma ogromne znaczenie. Choć III Rzesza miała przed wojną najlepszych fizyków i inżynierów świata to właśnie program jądrowy w USA dał oślepiające  rozbłyski  jądrowe nad Hiroszimą i Nagasaki. Nie była to biurokratyczna wesoła twórczość ale dobrze zorganizowany wysiłek najlepszych umysłów skierowany na konkretny, praktyczny cel.   
Praktycznie wszystko co jest w Polsce w miarę nowoczesne jest licencyjne i z braku dolarów na modernizacje zatrzymaliśmy się w rozwoju. Cenzura zabraniała podawania jakie to zakłady i licencje Polska zakupiła ale przecież jest to ogólnie wiadome.  

Polska "nauka" to kosztowna biurokracja pozorująca naukę. Biurokraci tłumaczą i przepisują zachodnie książki i czasopisma jako swoją twórczość lub drukują swoje żałosne wypociny.
Jeśli poziom wiedzy i umiejętności wymagany we wszystkich etapach do wykonania nowoczesnego urządzenia oznaczymy na 10 to polskie publikacje "naukowe" zatrzymuja się na pierwszym odcinku na poziomie 2.
Ogólnie wiadomym z grubsza jest jak wytwarza się broń jądrową i jak ona działa. To jest poziom 2.  Ale znane są tylko tytuły utajnionym patentów dotyczących technologii jądrowej i broni "jądrowej".
N.B. Współcześnie mocarstwa mają tylko i wyłącznie broń termojądrową często o prosto regulowanej sile eksplozji.
Wytworzenie nowoczesnej  broni termojądrowej to poziom 10. Choć państwa arabskie przeznaczyły na rozwój swoich programów nuklearnych miliardy dolarów to nie mają wymiernych efektów z czego wniosek że prawdziwą naukę ma tylko I Świat. Zatem efektywna nauka zarazem jest czynnikiem definiującym I Świat. Stworzenie prawdziwej nauki w Polsce nie jest sprawą prostą ale jest teoretycznie możliwe.    

Samooszukiwanie się zawsze było i jest nonsensem. Polsce potrzebna jest nowoczesna, złożona produkcja  wysokiej jakości z dużą  wartością dodaną oparta o własne projektowanie i własną naukę.  Żadne magiczne zaklęcia i samooszukiwanie się nie prowadzą do celu.  

Odtworzenie schematu - dokumentacji poprzez rozebranie urządzenia na elementy pierwsze i ustalenie co to są za elementy to Reverse Engenering. Oczywiście zachodnie koncerny śledzą wzajemnie swoje poczynania a szpiegostwo przemysłowe ma się dobrze! Utrudnieniem w RE są mikrokontrolery z pamięcią programu ROM, której w żaden sposób nie daje sie odczytać i program do "kopiowanego" urządzenia trzeba po prostu napisać od nowa.
 Ustawodawstwo części krajów wymaga dostarczania przez producentów szczegółowego "Service Manual" ze schematem ( i zawartością układów programowalnych użytych w glue logic ) ale koncerny światowe zwalczają te regulacje.  Oczywiscie podejmowane są przez producentów czynnosci dla utrudnienia RE:
-Brak komunikatywnych oznaczeń na IC. Swoje własne oznaczenia nawet na typowe IC ma koncern HP w postaci 18XXX. Serie IC i Q wyprodukowane na zamówienie dla HP zamiast zwykłego informującego oznaczenia mają w zasadzie dezinformujące oznaczenie HP. Tak samo działa japoński  Panasonic i inne koncerny.
-Własnego projektu nierynkowe IC monolityczne i hybrydowe wyprodukowane na zamówienie
-Stosowanie IC i innych  elementów selekcjonowanych dla jednego lub kombinacji  kilku parametrów 
PCB może być zasadnie dla tolerancji warunków trudnego środowiska pracy pokryta zalewą lub lakierem izolacyjnym i już usunięcie tego stwarza spory kłopot.
Przy weryfikacji odtworzonego fragmentu schematu urządzenia pomocny jest program do symulacji układów elektronicznych taki jak Microcap na komputery PC AT. W razie wątpliwości rozszyfrowywany podsystem możemy szybko zmontować na kawałku niewytrawionej płytki drukowanej lub na płytce uniwersalnej i badać / porównywać  jego zachowanie.

 Foxboro w USA pierwszy pneumatyczny regulator PI Model 10 Stabilog wyprodukował w 1933 roku. Prowadzone prace badawcze pozwoliły dodać różniczkowanie D. Przed końcem  tamtej dekady firmy Foxboro i Taylor handlowo oferowały regulatory PID. Dostępne były  pneumatyczne sensory i aktuatory. W 1945 roku sześć firm w świecie ( z USA – Niemcy – Wielka Brytania ) produkowało  elektroniczne regulatory PI i PID. Popularność elektronicznym regulatorom PI / PID  przyniosła jednak dopiero era tranzystora i układów scalonych. Tak więc monopol sygnału pneumatycznego w  automatyce był krótki. System pneumatyczny jest iskrobezpieczny, proste i tanie są w nim aktuatory i niektóre proste sensory. Mankamentem jest ciągły wydatek energii przez kompresor instalacji sprężonego powietrza.  Gdy w latach pięćdziesiątych zaczęto stosować w elektronicznej automatyce tranzystory, zastosowano sygnał prądowy ( czyli pętle prądowa ) 4-20mA emulujący sygnał  pneumatyczny 3-15 psi. Minimalne ciśnienie 3 psi ( czyli 0% i początek skali ) było konieczne dla pracy w liniowym zakresie  urządzeń pneumatycznych.  Przy czym nadal stosowano pneumatyczne organa wykonawcze  wraz z przetwornikiem sygnału prądowego 4-20 mA na pneumatyczny 3-15 psi.
Zaletami pętli prądowej 4-20 mA z "żywym zerem" ( Life zero ) jest względna prostota, łatwość okablowanie, odporność na zakłócenia,  łatwość diagnozy sprawności ( Sygnał poniżej 3.8mA lub powyżej 20.5 mA oznacza błąd.  Normalnie sygnał zawsze jest powyżej 4 mA i poniżej 20 mA - z reguły około 12 mA czyli w  środku zakresu ), możliwość zasilania sensora z pętli ( Minimalny prąd pętli 4 mA jest w zupełności wystarczający do zasilenia nowoczesnej (!)  elektroniki całkiem skomplikowanego sensora ) oraz odporność sygnału na zakłócenia i możliwość stosowania dość długich połączeń.
W pętli prądowej 4-20 mA (wejście systemu automatyki jest z takim standardem niezależne od rodzaju mierzonej zmiennej procesowej ) może pracować sensor temperatury ( jednak sensor z adapterem pętli 4-20mA jest znacznie droższy niż typowa PT100 czy termopara ),  ciśnienia, poziomu, przepływu, izolowany galwanicznie (!) sensor pH, prędkości lub praktycznie każdej innej zmiennej procesowej.
Pętla prądowa 4-20 mA może także sterować aktuator, często przetwornik prądu pętli na  ciśnienie dla pneumatycznego organu wykonawczego. W pętlę prądową można dodatkowo włączyć tylko izolowane  odbiorniki sygnału jak bierny miernik magnetoelektryczny. Izolowany odbiornik aktywny  niestety jest kosztowny co jest problemem i istotną wadą pętli prądowej.

Gdy system automatyki musi pracować także bez zasilania sieciowego zasilany awaryjnie akumulatorem, pętla prądowa jest wprost zasilana z akumulatora 24V ale ze środkami bezpieczeństwa na wypadek zwarcia petli. Typowo pętla jest zasilana napięciem 24-36 V i zasilanie rozładowywanym akumulatorem napięciem 22 V jest niestandardowe. Zatem rozwiązanie z buforowym akumulatorem jest bardzo proste.
Napięcie zasilania spada na kablu łaczącym sensor z odbiornikiem, na sensorze - transmiterze, szeregowo włączonym mierniku magnetoeletrycznym (<100mV) jeśli taki jest użyty  i na rezystorze wejściowym w odbiorniku sygnału. Transmiter powinien działać przy napięciu na nim w przedziale 13-36 V. Większość działa przy napięciu mniejszym od 13 V.  Zatem cała  jego elektronika musi się zadowolić moca mniejszą od 13 V x 4 mA = 52 mW z powodu marginesu prądu i napięcia. Na tle mocy pobieranych z sieci przez przyrządy pomiarowe jest to wartość mikroskopijna.

Znaczna moc sygnału w pętli prądowej 4-20 mA pozwala na stosowanie długości przewodu do 2000 stóp ( tak podają firmy z USA ) czyli 610 metrów zwykłą, tanią nieekranowaną skrętka w kablu  z wieloma innymi skretkami.
Wadą pętli 4-20 mA jest trudna elektronika sensora i praca tylko z jednym odbiornikiem sygnału. Drugi odbiornik (jeśli musi być zastosowany ) musi być galwanicznie izolowany od petli a jest to rozwiązanie kosztowne.

W języku polskim jedyną pozycją ogólnie traktującą o sensorach do pętli 4-20 mA  jest  "Urządzenia i układy automatycznej regulacji", Z. Trybalski PWN 1980. Są w niej niestety tylko schematy blokowe transmiterów - sensorów z nienowych materiałów producentów ale to i tak jest dużo.
Temat szczegółów  budowy przeróżnych sensorów do pętli 4-20 mA także w literaturze światowej jest objęty milczeniem.
Na schemacie blokowym  u Trybalskiego jest manometr różnicowy z przetwornikiem indukcyjnym sprzężonym z rurką Bourdona. Generator LC o częstotliwości 6 kHz ( często jest to około 5 KHz ) zasila  przetworniki indukcyjny za którym są połączone antyszeregowo dwa prostowniki dla uzwojeń przetwornika. Nie wiadomo czy generator jest zasilany stabilizowanym napięciem czy stabilizowanym prądem z regulatora.

Bardzo podobny jest schemat blokowy także z przetwornikiem indukcyjnym sprzężonym z rurka Bourdona.  
W transmiterach ciśnienia stosowane są także pojemnościowe sensory różnicowe. Ze schematu blokowego także wynika niewiele. Z RE wynika że jednoczesne dwukierunkowe zmiany dwóch pojemności sensora kompensują tu dwie równoległe z sensorem diody pojemnościowe do których podano napięcie DC takie aby sumarycznie ( sensor plus diody pojemnościowe) gałęzie półmostka miały identyczną pojemność. Suma napięć na diodach pojemnościowych jest odpowiednio kompensująco do temperatury. Prosty ale dobry  symetryczny generator LC pracuje w takich systemach  z częstotliwością 1.6-3 MHz nie stwarzająca problemów z EMC.  

W sensorach ciśnienia stosowane sa także mostki tensometryczne ale przy dysponowanym stałym prądzie stałym zasilania <4 mA , napięcie na ich wyjściu byłoby za małe nawet dla wzmacniacza z przetwarzaniem. Dlatego są zasilane napięciem zmiennym z obniżającego ( dopasowanie impedancji - napięć dla maksymalnej mocy dla zasilania mostka ) uzwojenia transformatora  generatora LC a łatwo wzmocnione napięcie zmienne z wyjścia mostka  jest podane do detektora synchronicznego.   Pływające uzwojenie zasilające mostek tensometryczny jest oczywiście ekranowane jako że  jedno wyjście mostka jest połączone z lokalnym GND systemu i prąd pojemnościowy między uzwojeniami transformatora zaburzyłby wyjście mostka. Schemat blokowy ( znany jest już schemat  ideowy z RE ) jaki umieścił w dokumencie producent jest de facto łagodną dezinformacją.
W przetworniku dwuliniowym o wyjściu 4-20 mA  do sensora PT100 lub termopary do dwuprzewodowej linii 4-20 mA z uwagi na małe napięcie z termopar zastosowano wzmacniacz z przetwarzaniem z kluczami na Mosfetach. Kompensacje temperatury odniesienia dla termopary wykonano na termistorze.  Standardowo włączona w transmiterach na wyjściu szeregowo dioda pozwala bezzakłóceniowo załączyć tam równolegle miliamperomierz o zakresie  20 mA. 

Wyjście 0/4-20 mA mają też transmitery trójprzewodowe z napięciem zasilania, z reguły 24 V. Tu pobór prądu dla systemu wzbudzenia sensora i dalszej elektroniki "kondycjonującej" nie jest ograniczony do 4 mA i konstrukcja elektroniki  jest znacznie łatwiejsza ale nie są one chętnie stosowane w projektach, choćby z uwagi na wymogi bezpieczeństwa. Skrętki są dwuprzewodowe (to jest często przewód telekomunikacyjny ) a nie ma skrętek trójprzewodowych i trzeba zaangażować dwie skrętki co jest dyskusyjne także pod względem wzajemnych zakłóceń torów.

 W I Świecie odkrycia są patentowane ale przykładowo patenty z obszaru broni i energii jądrowej są utajnione mimo znacznego ( do 40 lat !) upływu czasu. Patent z jednej strony słusznie pozwala firmie która wyłożyła duże środki na badania i rozwój (D&R) materialnie korzystać ze swojego  odkrycia ( można od niej patent kupić ) ale z drugiej strony pozornie spowalnia postęp i rozwój. Jednak znajomość z publikowanych patentów szczegółów rozwiązań pozwala innym firmom na dalsze badania, na zmiany, własne rozwiązania i obejście zastrzeżeń. Toteż zamilczenie tematu jest czasem lepszym i bardziej skutecznym sposobem ochrony opracowań.
Autor wykonał Reverse Engeneering pięciu dwuliniowych aktualnie produkowanych sensorów - transmiterów 4-20 mA przez czołowe firmy ( wysoka klasa dokładności ) na zachodzie. Ponieważ w dwóch użyto układów hybrydowych (?) niemożliwych do rozebrania opracowano układy o takiej ustalonej funkcjonalności. W trzecim jest wzmacniacz operacyjny, prawdopodobnie z przetwarzaniem lub autozerowaniem. W czwartym jest nieznany typ OPA o bardzo małym dryfcie i wyselekcjonowany na małe napięcie niezrównoważenia.   
Praca była trudna ponieważ mało używane sensory (złom) były uszkodzone po niedługiej pracy.  Cena katalogowe są nawet powyżej 1000 dolarów za sztukę. Uszkodzone były m.in. ochronne diody Zenera i zasilacze prawdopodobnie po dziwnej burzy.
N.B. Nagły "Grom z jasnego nieba" przy dobrej pogodzie ma odwrotną polaryzacje niż normalny piorun i natężenie aż do 400 kA co czyni go straszliwie destruktywnym. Warystor chroniący sieć WN lub NN po jej trafieniu "Gromem z jasnego nieba" potrafi wybuchnąć.

Cena energii elektrycznej z małej baterii jest ponad 10 tysięcy razy wyższa niż energii  z sieci energetycznej. Droższa niż z sieci jest też energia  z agregatu spalinowego, szczególnie małego benzynowego ale sprawność wielkich okrętowych silników Diesla przekracza nawet 50%.
Droga jest energia na satelicie z ogniw fotovoltaicznych i ogniw termoelektrycznych nagrzewanych rozpadem promieniotwórczym Plutonu. Moc pobierana przez wszelkie urządzenia przenośne (na przykład radiotelefon)  jest ograniczona. Urządzenia bez przeryw załączone jak sensory pożarowe i włamaniowe też powinny konsumować mało mocy. Zatem wymagania na niski pobór mocy wynikają z okoliczności i kontekstu. Czasem możliwy do pobrania prąd i moc są ograniczone jak przypadku sensora do systemu 4-20 mA.
Od dekad tanieją tranzystory dyskretne i w układach scalonych. Szczególnie tanie są one w pojemnych pamięciach ROM i DRAM. Natomiast kilowatogodzina energii elektrycznej przestała tanieć i jest w trendzie rosnącym. Zatem iloraz ceny tranzystora / KWh  spada i jeszcze długo będzie spadał jako że tania energia termojądrowa to melodia dalekiej przyszłości o ile w ogóle kiedyś ją pozyskamy przed zdewastowaniem Ziemi klasyczną energetyką cieplną.

Tradycyjnie napięciami +-15V zasilany jest w profesjonalnym urządzeniu elektronicznym system analogowy a napięciem +5V system cyfrowy. Ponieważ najmniejszy spadek napięcia na regulatorze 5 V jest spory a system ma tolerować brak napięcia sieciowego przez conajmniej 10 ms to regulatorowi +5V jest podane z prostownika pojemnościowego napięcie rzędu 16 V. System taki jest energożerny co skłoniło do zastosowania regulatorów impulsowych a potem zasilaczy sieciowych SMPS.  W monolitycznej technologii analogowej z 1970 roku napięcie  Vceo tranzystorów wynosi 50-70V  a Ft tranzystora NPN dochodzi do 500 MHz ale tranzystor PNP jest powolny. Obecnie technologia dająca pełnowartościowy tranzystor PNP jest stosowana ale jest droga.
Gdy tranzystory w IC mają być szybsze ich Vceo jest mniejsze. W popularnym wzmacniaczu różnicowym uA733 ( i odpowiedniki ) Ft tranzystorów wynosi około 1.7 GHz a Vceo jest mniejsze od 25 V. Tak samo w układach IF 38/38.9/45 MHz do TVC zasilanych napięciem 12V.
Każdy materiał półprzewodnikowy ma fizycznie nieprzekraczalną stałą materiałową jako iloczyn Vceo i  Ft. Realne tranzystory krzemowe są jeszcze dalekie od tej granicy. Generalnie im tranzystor ma wyższe napięcie Vceo tym jest wolniejszy i  ma większy czas wyjścia z nasycenia oraz mniejsze wzmocnienie. Powyżej circa Uceo 100 V pojawia się uciążliwy obszar trudnego do zrozumienia na gruncie prostej teorii tranzystora, kłopotliwego quasi - nasycenia.  Tranzystory BFR91 o Ft=5 GHz mają Vceo = 15 V. W najszybszych układach ECL Ft tranzystorów dochodzi do 5-10 GHz i to przy Ubc=0V .
Zatem chcąc analogowo przetwarzać szybsze sygnały, szybkie IC z tranzystorami o małym Uceo muszą być zasilane niewielkimi napięciami.
Dla tranzystorów  podawane są w katalogach wykresy Ft w funkcji napięcia Uce  i prądu Ic. Ft zawsze rośnie z napięciem pracy Uce a największe Ft tranzystor ma przy średnich prądach Ic kolektora.   We wzmacniaczu operacyjnym ( dalej OPA ) kompensacja częstotliwościowa musi podołać najgorszej sytuacji Ft dla kombinacji Uce i Ic nieliniowych przecież  tranzystorów. Często w stopniu napięciowym OPA stosuje się diodę zapobiegającą destabilizującemu nasyceniu ( czas wyjścia z nasycenia ) tego tranzystora.
We wzmacniaczach operacyjnych stosowany jest wyjściowy komplementarny wtórnik emiterowy i zakres napięcia wyjściowego jest mniejszy od napięcia zasilania. Ale komplementarny stopień wyjściowy może pracować w układzie 2 x WE i zakres napiecia wyjściowego jest wtedy bliski napieciu zasilania. Ale rozwiązanie to ma sens tylko w układach niskonapięciowych bo tam parametry niskonapięciowego  tranzystora przy małym napięciu Uce szybko się nie psują a czas wyjścia z nasycenia jest bardzo krótki.
 
W układach scalonych o złożonej funkcjonalności prosty OPA o słabych parametrach z najmniej 3 tranzystorów ( para różnicowa + stopnień napięciowy ) i rezystorów to "building block" czyli cegła w dużym murze. Ale wyrafinowane samodzielne OPA mają ponad 50 tranzystorów a OPA CMOS z autorównoważeniem jeszcze znacznie więcej. Stosunkowo prosty jest też komparator. Dość trudne jest precyzyjne zródło napięcia odniesienia.
Innym w miarę prostym "building block" jest analogowa pętla fazowa PLL, której można użyć w wielu zastosowaniach komunikacyjnych ale nie tylko. Jest też użyteczna w sensorach. Sama składa się z generatora i detektora fazy z regulatorem o odpowiedniej dynamice. Realizacja PLL ma już swoje lata. Pierwszą PLL zastosowano do synchronizacji systemu odchylania poziomego w TV w 1938 roku a układ monolityczny NE565 jest z 1969 roku.  Całkowicie scalony monolityczny wzmacniacz - demodulator PLL do fonii FM w TVC ma jeszcze co prawda za duże szumy ale prace nadal trwają. Demodulator taki będzie mógł mieć przełączaną częstotliwość czyli bedzie wielosystemowy. Nie wymaga drogiego strojenia indukcyjności bo jej tam nie ma. Demodulator  sygnału VSB wizji z odtwarzaniem nośnej przez petle PLL ma znakomite parametry ale generator używa jednak obwodu LC.   
W nowoczesnych mikrokontrolerach takim "building block" stają  się przetworniki ADC z 8 wejściowym multiplexerem. Z uwagi na małą dokładność rezystorów i kondensatorów w technologi procesorów  stosuje się rozwiązania nie wymagające precyzji ale z bardzo dużą liczbą tranzystorów. Cyfrowe tranzystorki CMOS są jednak bardzo małe - gęste i ADC nie okupuje dużej powierzchni chipa mikrokontrolera a o to przecież chodzi.
Jako przetwornik DAC stosuje się w mikrokontrolerze generator PWM z wyjściowym filtrem dolnoprzepustowym RC.

Zakres napięć sygnałów i napięć zasilania w systemach elektronicznych jest ogromny.
Sygnał z mikrofonu dynamicznego jest rzędu 100 uV. Aparat słuchowy zasilany jest z jednej bateryjki 1.2 V. Rekordowe japońskie Amplitunery mają moc ciągłą po 300 W na kanał i zasilanie wzmacniaczy mocy napięciem do +-90 V.
Radio UKF-FM odbiera już sygnał o napięciu 0.5 uV. Sygnały z wielkich parabolicznych anten satelitarnych odebrane z odległych sond kosmicznych Voyager są poniżej 0.04 uV. Najmocniejsze impulsowe klistrony mocy >100 MW zasilane są napięciem 300 KV ale w nadajnikach TVC na zakres UHF do 50 KV.
Zatem napięcia zasilania we wzmacniaczach mocy wynikają z żądanego poziomu mocy wyjściowej. 
Kineskop odbiornika TVC zasilany jest napięciem do 27 KV a jego katody RGB sterowane są napięciami sygnałów Video do 140 Vpp. Kolorowy kineskop osiągnął szczyt swoich możliwości ale prace nad alternatywnymi wyświetlaczami LCD dopiero trwają.
Wysokich napięć zasilania wymagają lampy rentgenowskie. Napięcia zasilania fotopowielacza dochodzą do 2000 V ale moc konsumują w zasadzie rezystory dzielnika napięć. Pobór mocy można korzystnie zmniejszyć stosując proste aktywne dzielniki z tranzystorami. Do ultra szybkiej fotodiody lawinowej potrzeba do 200 V napięcia zasilania ale przez gro czasu pracują ze znacznie mniejszym napięciem.    
  
Era powszechnego cyfrowego przetwarzania sygnałów faktycznie rozpoczęła się w 1982 roku. Firma ITT wprowadziła zestaw procesorów do cyfrowego przetwarzania sygnałów Video i Audio do TVC. Wyspecjalizowane nieprogramowane procesory ( program przetwarzania wynika z połączenia bloków )  do sygnału Video wykonują razem ponad miliard operacji na sekundę ! Natomiast wolniejszy  procesor Audio jest normalnie programowany. Tej szybkości są też DSP NEC i następnie TI. Architekturę procesora DSP cechuje wykonanie operacji mnożenia z dodawaniem w jednym cyklu zegarowym a więc na tle zwykłych procesorów szokująco szybkie. Kwestią czasu jest pojawienie się takiej zdolności w zwykłych procesorach. "Pod strzechy" trafiła też wtedy w 1982 roku zaawansowana technologia cyfrowej płyty CD opracowana przez potężny duet Philips Sony. Płyta CD zawiera do 600 MB informacji ale proces przyswajania technologii DSP - CD przez komputery PC (IBM) jest powolny jako że Sony - Philips nie są amerykańskie jak PC. Zaawansowana technologia DSP nie pochodzi z USA co może sie wydawać dziwne bo przecież tam narodziły się komputery !
Wcześniej egzotycznie systemy DSP stosowano do rozpoznawania sygnałów z hydrofonu aby rozpoznać i namierzyc wrogi strategiczny okręt podwodny z bronią nuklearną i do przetwarzania sygnałów ze strategicznych radarów wczesnego ostrzegania przed atakiem ICBM. AT&T z BL w 1979 roku zastosował procesor DSP w niewielu centralach telefonicznych do zmniejszenia ech przy dalekiej ( głównie przez satelity lub międzykontynetalne kable podmorskie ) łączności telefonicznej. To był pierwszy krok do wyjścia DSP z egzotyzmu i przejścia do zaawansowanych masowych zastosowań, które znakomicie rokują. 

Najniższą energie dla jednego przełączenia zużywa logiczny inverter CMOS. Energia ta ciągle spada wraz z malejącym rozmiarem tranzystora P i N  i rosnącą rozdzielczością procesu fotolitografii oraz spadkiem napięcia zasilania. W teorii tranzystora MOS nie ma odpowiednika napięcia Ube tranzystora bipolarnego i napięcie zasilania układu CMOS o wielkiej rozdzielczości może być niższe od 1 V a nawet 0.5 V ale efekt tunelowy spowoduje istotny upływ prądowy maleńkich tranzystorów. Są więc teoretyczne granice miniaturyzacji tranzystora MOS i obniżenia napięcia zasilania ale zostaną one osiągniete po wielu dekadach postępu !
Intel w swojej publikacji podaje konkretne parametry coraz mniejszych  tranzystorów NMOS w kolejnych wersjach ( schemat , zawartość ROM mikroprogramu i i skalowany layout są identyczne ) procesora 8086. Wraz ze zmniejszeniem tranzystorów i chipa wzrasta szybkość przełączania i taktowania oraz spada jego energia. Znacznie wydajniejszy procesor 80286 ( wzbogacono w nim też  listę rozkazów 8086 ) jest już wykonany w technologii CMOS. Chociaż tranzystor P jest do 3 razy wolniejszy niż tranzystor  N i układ CMOS ma z reguły więcej elementów niż NMOS ( ale nie zawsze tak jest ! ) to zdaniem autora technologia CMOS ( zwłaszcza mieszana cyfrowo - analogowa ) ma tak wiele różnych ważnych zalet że nie ma dla niej obecnie alternatywy.
Skomplikowane funkcje logiczne CMOS realizuje się w sposób nieortodoksyjny co pozwala zmniejszyć liczbę tranzystorów i powiększyć szybkość działania. Połączenia tranzystorów CMOS nie mają wprost schematu logicznego 1:1 korespondującego z elektrycznym  jak w pokazanym układzie szybkich przeniesień w ALU CMOS.        

O ile analogowe przetwarzanie sygnałow może być tylko względnie proste to w przypadku DSP ograniczenie stwarza ( rosnaca ) szybkość pracy DSP, pojemność RAM  i wyobraźnia tego co chcemy zrobić.

Literatura
1.Hewlett Packard Journal od 1978.
2.Electronics Components & Aplication, Philips.
3.Z.Trybalski,  "Urządzenia i układy automatycznej regulacji", PWN 1980.
4.National Semiconductor. Application Notes.
5.Publikacje ISA:
“Dynamic Response Testing of Process Control Instrumentation.” ANSI MC 4.1/ISA-S26. Instrument Society of America,1975.
“Process Instrumentation Terminology.” ANSI/ISA S51.1, Instrument Society of America, 1979.
Murrill, P. W. “Fundamentals of Process Control Theory,” Instrument Society of America, 1981.
 “Electrical Transducer Nomenclature and Terminology,” ANSI MC 6.1/ISA-S37.1, Instrument Society of America, 1982.
Sydenham, P. H., “Basic Electronics for Instrumentation,” Instrument Society of America, 1982.
Chesmond, C. J., “Control System Technology,” Instrument Society of America, 1984.
Morrison, R., “Instrumentation Fundamentals and Applications,” Instrument Society of America, 1984.
Travers, D., “Precision Signal Handling and Converter-Microprocessor Interface Techniques,” Instrument Society of America, 1984
Strock, O. J., “Introduction to Telemetry,” Instrument Society of America, 1986.
Liptak, B. G., Instrument engineers handbook: Process control, Chilton Book Co, 1985

Dodatek
"HP Prefix Component Part Material
0121- Capacitors, Variable (mechanical)
0122- Capacitors, Voltage Variable (semiconductor)
0140- Capacitors, Fixed
0150- Capacitors, Fixed,
0160- Capacitors, Fixed
0180- Capacitors, Fixed Electrolytic
0330- Insulating Materials
0340- Insulators, Formed
0370- Knobs, Control
0380- Crystals
0470- Adhesives
0490- Relays
0510- Fasteners
0674- through 0778- Resistors, Fixed (non wire wound)
0811- through 0831- Resistors (wire wound)
1200- Sockets for components
1205- Heat Sinks
1250- Connectors (RF and related parts)
1251- Connectors (non RF and related parts)
1410- Bearings and Bushings
1420- Batteries
1820- Monolithic Digital Integrated Circuits
1826- Monolithic Linear Integrated Circuits
1850- Transistors, Germanium PNP
1851- Transistors, Germanium NPN
1853- Transistors, Silicon PNP
1854- Transistors, Silicon NPN
1855- Field-Effect- Transistors
1900- through 1912- Diodes
1920- through 1952- Vacuum Tubes
1990- Semiconductor Photosensitive and Light-emitting Diodes
3100- through 3106- Switches
8120- Cables
9100- Transformers, Coils, Chokes, Inductors, and Filters"
Czyli  1854-XXXX to tranzystor krzemowy NPN. 1826-YYYY to monolityczny układ liniowy

4 komentarze:

  1. Technologia neokoloni ! Nasz samodzielny eksport to - kiełbasa, ogórki kiszone, krasnale ogrodowe, palety, drewno, miedź...

    OdpowiedzUsuń
  2. Nie tylko HP miał własne oznaczenia elementów. Tak dalej robi Panasonic i inni.

    OdpowiedzUsuń
    Odpowiedzi
    1. Coraz więcej jest takich elementów że nie wiadomo co to jest.

      Usuń
    2. Witam. Jak IC jest produkowany na zamówienie to oznaczenie jest tajne.

      Usuń