Laboratorium zaawansowanej elektroniki i automatyki 91
Executive Order 6010 czyli Dekret prezydenta Roosevelta skonfiskował Amerykanom ich złoto nie będące osobistą biżuterią. USA w czasie wojny zgromadziły z handlu ogromną ilość złota od Świata co pozwoliło dać po II Wojnie dolarowi jako walucie światowych rezerw oparcie w złocie. Ostatecznie zlikwidowano je w 1971 roku.
Na wykresie pokazano 200 lat globalnej produkcji złota w poszczególnych krajach świata. „Barbarzyński relikt” był i jest ważny.
To że od amerykańskiej gorączki złota w 1848 roku wzmocnił i utrwalił się wzrost gospodarczy USA nie było wcale przypadkowe !
Rosnące w stalinowskim ZSRR wydobycie złota zatrzymał najazd Niemców.
Gdy Chiny skończyły z szaleństwami Mao i od 1978 roku rozpoczął się ich rozwój od razy zaczęły wydobywać złoto. Zatrudnionych jest przy tym tylko około 28 tysięcy pracowników.
Yuana jest bardzo mało w rezerwach walutowych świata ale pamiętać należy o tym że dolarem się głównie spekuluje i rabuje! Płatność za realne transakcje handlowe to margines transakcji dolarowych świata.
W 2022 roku nastąpiło zamrożenie rezerw walutowych rosyjskiego banku centralnego. Wszyscy zrozumieli, że Waszyngton może odebrać rezerwy walutowe, komu chce i kiedy chce. Podważono zaufanie do dolara.
Zanim obecny światowy ład pieniężny przejdzie do następnego etapu ewolucji, mocnej redukcji wymaga wiele zobowiązań niemożliwych do realizacji. W historii działo się to poprzez niewypłacalność lub inflację albo jednoczesną kombinację tych dwóch czynników. Stolik wywraca też wojna.
Najbardziej zaufanie do dolara podrywa jednak drukowanie pierdyliardów dolarów przez FED dla zadrukowania kosmicznego deficytu handlowego USA.
Nie ma już potrzeby dalszego okłamywania skolonizowanych Polaków co do własności gospodarki w Polsce.
https://businessinsider.com.pl/gospodarka/kardynalne-bledy-polakow-na-niemieckim-rynku-polski-eksport-to-dzielo-niemieckich/6jk0zee
"Niby eksport z Polski do Niemiec idzie pełną parą, ale niech nie zmylą nas pozory. Większość to dzieło niemieckich firm, które pobudowały zakłady na terenie naszego kraju."
Plan inwestycyjny Volkswagena na 5 lat opiewa na 180 mld Euro. Firma przestawia się na produkcje elementów do swoich samochodów elektrycznych. Praktycznie nie ma inwestycji w Polsce.
https://moto.rp.pl/na-prad/art38330481-180-mld-euro-w-5-lat-gigantyczny-plan-inwestycyjny-volkswagena
Trwa kryzys demograficzny w wielu krajach. Realna automatyzacja może być lekarstwem na tą chorobę. Port w Tianjin jest całkowicie zautomatyzowany przez Huawei. Praktycznie nie ma pracowników na terenie operacyjnym portu.
W Polsce głoszone prorodzinne slogany populistyczne dały w efekcie pogrom demograficzny.
“Koniec dywidendy demograficznej, inflacja i stagnacja, czy adaptacja technologiczna?” Pytanie bez odpowiedzi.
AI czyni zbędnym osoby z wykształceniem społecznym i humanistycznym. Artykuł „Occupational Heterogeneity in Exposure to Generative AI” , https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4414065 zawiera tabele z 774 zawodami najłatwiejszymi do likwidacji przez AI. Na czele tych zawodów do likwidacji jest telemarketer.
W Polskich urzędach i w parlamencie zasiadają nieomal wyłącznie osoby które mogą być zastąpione przez AI. Premierzy Tusk i Morawiecki są z „wykształcenia” historykami ale wersja historii którą posiadają jest w 90% dezinformacją. Jednostka ma świadomość sytuacyjną i intuicje. Złodzieje po Spółkach Skarbu Państwa rocznie biorą więcej niż zarobili w całym swoim dotychczasowym życiu. Przez 8 lat politycy tyją po 20 kg i otyłym tłuszcz wylewa się na twarzy. Może oni podświadomie wiedzą że czekają ich ciężkie czasy i gdy jest ich 5 minut muszą się nażreć bo to jedyna taka okazja w plugawym podłym życiu.
W tabeli podano życiowe zarobki Bachelor-a ( to tylko w grubym przybliżeniu jest nasz licencjat w naszym systemie nazw ) z całego życia w podziale na zawody/dyplomy. Dodatkowa premia za tytuły MA, PHD i MBA wynosi 30%-75% ale jest nieregularna. Widać jakie zawody są w cenie.
W grudniu 2022 roku pod Bydgoszczą spadł samosterujący manewrujący poradziecki pocisk Ch-55. Ma on 6.03 m długości i waży 2 tony. Napędzany silnikiem odrzutowym ma zasięg do 2800 km. Początkowo miał tylko głowice termojądrowa o mocy 200 KT ale Rosja wyposażyła te pociski też w głowice konwencjonalną circa milion razy słabszą od jądrowej. Wymieniono też sowiecką elektronikę na współczesną.
Elegancko to przemilczano, żeby nikogo nie niepokoić i dalej okradać budżet. Żeby nikt o nic nie pytał. Wszelkie radary niczego nie zarejestrowały ( rzekome śledzenie okazało się kłamstwem ) ale końcowa faza lotu widoczna jest na przypadkowych filmach ze smartfonów. Skompromitowało się Wojsko Polskie ale też i NATO. Pocisk taki leci na wysokości poniżej 100 m i faktycznie śledzić go można z kosmosu lub z samolotu z odpowiednim radarem. Jego ślad termiczny nie jest duży.
Ale cztery i pół miesiąca później, kiedy ludzie znaleźli go w lesie, wojsko go zabrało i „ma hipotezy” !
Państwo pasożytnicze w całej krasie ! Gdyby pocisk był zabłąkany prawdopodobnie by eksplodował. Mógł być bez głowicy jako ostrzeżenie ze strony Rosji - patrzcie jesteście zupełnie bezbronni ! Przestańcie wariować !
"Kupujemy Himarsy, a brakuje obuwia. Przyjeżdża minister i idą poważne pisma, żeby wytrzasnąć jednakowe buty choćby tylko dla kompanii honorowej" W zeszłym roku mundur zdjęło prawie 19 tysięcy żołnierzy.
Pozostaje wiara w cuda.
Duże są różnice w religijności między Zachodem a Wschodem Europy.
Produkowana od 1979 roku podstawowa termojądrowa amerykańska głowica taktyczna W80 ma regulowaną moc do 150 kiloton. Waży 130 kg. Długość 80 cm, średnica 30 cm. Zamontowana jest w bombach lotniczych B61 stacjonujących w Europie. Szacunkowy koszt to co najmniej 40 mln dolarów ale dokumenty National Nuclear Security Administration są mało wiarygodne lub utajnione. Może to być nawet ponad 100 mln dolarów.
Rozwój cywilizacji nie jest liniowy i lokalnie w wielu miejscach świata się ona mocno cofała.
Na rysunku rewolwer sześciostrzałowy z zamkiem kołowym. Niemcy, 1600 rok ! Wojna trzydziestoletnia spustoszyła i lokalnie wyludniła Niemcy. Relatywnie wzmocniło to Francję i w gruncie rzeczy doprowadziło do I i II Wojny.
Archiwum. „Optymalizacja 1
1..Żyjemy obecnie w okresie trzeciej rewolucji przemysłowej. Rewolucji automatyzacji, której napędem są elektronika i komputery.
Człowiek swoimi złożonymi sensorami odbiera informacje od otoczenie. Najważniejszym zmysłem jest wzrok. Słuch służy głównie do komunikacji mową z innymi ludźmi.
Produkowane sensory są bardzo proste na tle sensorów człowieka ale zarazem niesamowicie dokładne. Kombinacja sygnałów z kilku sensorów analogowych lub binarnych jest sensorem Virtualnym.
Philips jako pierwszy oferuje konkurencyjne sensory CCD do małych kamer zamiast Vidikonów. Do użytecznego rozpoznawania obrazów ( mnóstwo potencjalnych zastosowań, najprostsze to odcisk palca i tęczówka oka) z kamery CCD potrzeba procesorów mocniejszych od obecnych 100-1000 razy co według prawa Moore'a dokona się przecież całkiem niedługo !
Sensory człowieka w ogóle nie dokonują pomiarów jakie wykonuje coraz większa ilość przeróżnych sensorów i analizatorów. Obrazy USG czy tomograficzne powstają tylko dzięki elektronice.
System automatyki składa się z sensorów, systemu przetwarzania informacji i aktuatorów.
Koniem roboczym regulacji jest nadal regulator PI-PID z różnymi istotnymi modyfikacjami.
O szybkości ustalenia pętli regulacji decyduje opóźnienie obiektu. Tam gdzie jest ono bardzo duże na tle oczekiwanego ustalenia poziomu wyjścia obiektu, regulacja w pętli zamkniętej traci sens. W systemie OLOF ( Open Loop Optimal Feedback ) obiekt jest odpowiednio sterowany (mierzalne zakłócenia są kompensowane ) w pętli otwartej tak aby uzyskać pożądaną odpowiedź ale dynamika obiektu jest cały czas jest identyfikowany aby znać jego zachowanie. Między innymi ta idea jest stosowana w systemie wielowymiarowym MPC – Model Prediction Control. Na świecie praktycznie większość nowoczesnych rafinerii i zakładów petrochemicznych ( ponad 3000 ) pracuje z systemami MPC. Oczywiście wypracowywane przez MPC wartości zadane są podawane do realizacji licznym regulatorem PI-PID.
Procesy fizyczne i informacyjne na zautomatyzowanym stanowisku pracy sprzedawcy są zupełnie inne niż wykonywane przez sprzedawcę bez automatyzacji. Czytnik kodu paskowego ( w „Sensory Interfejsy i zastosowania” podano schemat samego ręcznego czytnika-skanera kodu paskowego koncernu HP) odczyta kod z opakowania towaru konfekcjonowanego. Towar na wagę momentalnie zważy elektroniczna waga. Sprzedawca musi tylko wybrać rodzaj towaru. Skanero – wago – kasa momentalnie obliczy należność i zaraportuje centralnemu komputerowi sklepu ( jeśli taki jest w systemie ) po zamknięciu szuflady kasy sprzedaż towarów.
Waga takiego systemu może być okresowo zerowana ale tylko w bardzo małym zakresie. Gdy więc sprzedawca naciśnie klawisz polecenia rozliczenia zakupów i otwarcia kasy system może ewentualnie troszkę podzerować wagę ( przykładowo do 0.1% skali ) lub dać ostrzegawczy sygnał sprzedawcy świadczący o tym że coś na wadze jest lub jest ona brudna. System w dwuznacznej sytuacji może się zablokować i odblokować może go tylko uprawiony pracownik.
N.B.Przemysłowych, laboratoryjnych i naukowych zastosowań SG-LC jest naprawdę dużo i Polska w tej mierze bardzo niekorzystnie odstaje od liderów.
Mostki piezorezystancyjne mimo iż mniej dokładne i stabilne od typowych SG-LC mają ponad 10 x razy większą czułości i układ kondycjonera sygnału dla nich jest łatwy i tani.
Cena jednego bitu zapisanego w pamięci masowej maleje i maleje. Twardy Dysk HD jest pojemny i dyspozycyjny ale archiwizacja danych na taśmie magnetycznej jest dziesiątki razy tańsza ale czas dostępu jest setki razy dłuższy.
Parametry procesów (zwłaszcza) w dużej chemii tradycyjnie rejestrowano na wstędze papieru. Już obecnie ich zapis na HD jest tańszy no i bardzo wygodny. Po czasie dane z HD można archiwizować w pamięci taśmowej lub zastąpić nowymi danymi gdy stare są bezużyteczne. Długie zapisy parametrów złożonego procesu są bardzo użyteczne do „nauki” systemu MPC.
W zautomatyzowanej produkcji nowoczesnej, próżniowej, bardzo czystej mikroelektroniki człowiek bezpośrednio nie uczestniczy w operacjach produkcyjnych i nie może uczestniczyć.
Mimo iż postępy z automatycznym rozpoznawaniem sygnałów EKG i ich klasyfikacji są znaczne i optymistyczne to lekarze jeszcze długo będą potrzebni.
Automatyzacja ma podnosić wydajność pracy i dochód narodowy. Nie brakuje nam sprzedawców i automatyzacja tego stanowiska nie jest pilna i w nadchodzących latach nie będzie istotna.
Za to rafinerie i petrochemie mamy prymitywne i cierpi na tym cała gospodarka narodowa. Przykładowo produkcja w Polsce plastików per capita jest mała na tle produkcji w NRD i CSRS a co dopiero RFN. Paliwa silnikowe są zasiarczone co negatywnie wpływa na trwałość silników, środowisko naturalne i zdrowie ludzi. Zatem zastosowanie do nowoczesnej technologicznie – produktowo petrochemii automatyzacji z systemem MPC da nam ogromne korzyści !
Nasz skromny eksport w dużej części finansuje zakupy ropy naftowej za dolary. To co z niej produkujemy duży wpływ na dochód narodowy. Oszczędność zużycia w transporcie towarowym przez silniki Diesla ( benzynowe powinny być dawno wycofane) i osobowym przez silniki benzynowe z elektronicznym wtryskiem paliwa i zapłonem ma duże znacznie.
2.Jaką dynamikę sygnałów można osiągnąć w funkcji napięcia zasilania systemu elektronicznego ? Na dynamikę składa się zdolność operowania słabym sygnałem a z drugiej strony moc na wyjściu. Moc wszystkich źródeł we wszechświecie jest 10E80 razy większa niż najsłabszych zjawisk znanych fizyce. Moc sygnału odbieranego wielkimi kierunkowymi antenami parabolicznymi z sond kosmicznych Voyager może spaść do 10E-19 W. Z przykładów bardziej przyziemnych to moc światła odbieranego w kompletnej ciemności po długiej akomodacji ludzkim okiem i moc sygnału FM odbieranego dobrym radiotelefonem FM na granicy szumu wynosi 2 x 10E-16 W.
Dopuszczalna w USA moc ERP ( Effective Radiated Power czyli z uwzględnieniem zysku energetycznego z kierunkowości anteny nadawczej ) stacji UKF FM wynosi do 50 /100 KW. Wyjściowa ceramiczna „technologiczna” lampa z BeO zasilana jest napięciem anodowym > 3-15 KV. Ale małe lokalne stacje mają już nadajnik tranzystorowy mocy poniżej 200 W z zasilaniem 28V. Moc ERP stacji telewizyjnej na zakresie UHF wynosi aż do 10 MW. Klistron stacji TV-UHF zasilany jest napięciem rzędu 20-60 kV. Oczywiście licencje na potężne moce nadajników wydawane są jednostkowo i niezwykle rzadko. Typowe stacje mają ułamek podanych maksymalnych mocy.
Moc impulsu strategicznego radaru dalekiego zasięgu przekracza 100 MW a napięcie zasilania jest ogromne i dochodzi do 400 KV.
Generalnie im większa jest moc tym większe jest napięcie zasilania i wyjściowe. Ale z części informacyjnej systemu automatyki delikatny sygnał analogowy czy cyfrowy jest dopiero podany do Wykonawcy Mocy.
Częstotliwość graniczna Ft i wzmocnienie prądowe tranzystora bipolarnego wzrastają wraz Uce a jednocześnie spada nieliniowa pojemność Cbc. Wzmocnienie rośnie tylko do pewnego prądu kolektora Ic z dalej spada. We wzmacniaczach selektywnych LC, Ft jest równie ważna jak mała pojemność Cbc. We wzmacniaczu pośredniej częstotliwości odbiornika TV zaledwie trzy zoptymalizowane tranzystory BF pracujące z optymalnym prądem Ic z Uce ponad 15V dostarczały wzmocnienia aż >90 db !
Ale w totalnie odmiennej filozofii stopnie wzmacniacza ogranicznika z demodulatorem FM w scalonym układzie TBA120 pracowały z napięciem Ube bliskim zeru. Załączony tranzystor w układzie „ECL” również ma napięcie Ucb bliskie zeru a nawet ujemne. Były różne rodziny układów ECL i mowa o układach Motoroli ( licznie naśladowanych ) które jako jedyne są produkowane na rynek a nie tylko do własnych wyrobów.
Prąd tranzystora bipolarnego rośnie wykładniczo z napięciem Ube które przy średnich prądach w temperaturze pokojowej wynosi 0.7V. Z tego powodu nie można zbudować układu bipolarnego o dobrych parametrach zasilanego napięciem mniejszym od 1.2 V czyli napięcia ogniwa akumulatora.
Natomiast w fizyce tranzystora MOS nie ma odpowiednika napięcia Ube i napięcie Ugs czyli i zasilania z jakim może pracować szybki system MOS ( IC zbudowany technologią o dużej rozdzielczości ) może być mniejsze od 1 V ale pojawia się problem znacznego prądu upływu spowodowany zjawiskiem tunelowym. Z kolei wzmocnienie napięciowe takiego tranzystora MOS jest małe co sprawi trudności w konstrukcji układu analogowego jak OPA. Ale pomysłowość ludzka jest nieskończona.
3.Zjawisko starzenia się jest powszechne.
Skutkiem depolimeryzacji celulozy papierowa izolacja transformatorów olejowych starzeje się tym szybciej im wyższa jest temperatura i zawartość wody w oleju. Zależnie od temperatury trwałość tej izolacji spada dwukrotnie przy wzroście temperatury o 6-9 C.
Duże natężenie pola elektrycznego w kablu HV przyśpiesza zmiany w polietylenie izolacji kabla.
Starzeje się też izolacja cieplna z włókien i pianek.
Skutkiem obciążeń dynamicznych rozwijają się w metalowych częściach mikropęknięcia.
Współczynnik rozszerzalności cieplnej metali sprawia że przy zmianie temperatury powstają naprężenie mechaniczne i konstrukcja traci trwałość.
Korozja niszczy metale.
Trwałość elementów półprzewodnikowych spada o połowę przy wzroście temperatury o 7-10 C ale dopiero powyżej ca 30 C bowiem wilgoć też niszczy układy. Zywotność półprzewodnikom skraca też za wysokie napięcie pracy.
Starzeje się wszelka przyroda ożywiona.
Skutkiem starzenia się elementów biernych następuje zmiana ich parametrów.
4.Uchwytny statystycznie rozwój gospodarczy i technologiczny rozpoczął się w połowie XVIII wieku ale już wcześniej przy małych i długich różnicach tempa rozwoju kraje były zróżnicowane w bogactwie.
W dziejach wykształciło się wiele profesji, które już zniknęły - bednarz, cyrulik, druciarz, folusznik, garncarz, karpiniarz, klikon, klucznik, kołodziej, konwisarz, ludwisarz, łaziebnik, maziarz, powroźnik, rymarz, sitarz, zdun. I tak dalej.
Smieszą obecnie stare przewidywania futurystów. Przewidywanie przyszłości jest bardzo ryzykownym zajęciem ale rządy i szefowie koncernów jednak muszą przewidywać przyszłość.
Do sterowania złożonych wielowymiarowych obiektów przemysłowych o bardzo dużym opóźnieniu stosuje się z powodzeniem algorytmy Model Prediction Control. MPC jest z dobrym rezultatem stosowany w nowo budowanych nowoczesnych rafinerach i zakładach petrochemicznych a nawet w modernizowanych. Zatem jednak predykcja czyli przewidywanie ma sens. Coraz lepsze są prognozy pogody.
Niepewność predykcji wzrasta wraz z odległością horyzontu by w końcu zmienić się w bajania futurologów.
5.Optymalizacja rozwoju gospodarczego. Historia gospodarcza świata dostarcza nam różnych przykładów rozwoju krajów Zachodu, USA i Japonii. Wszędzie miała miejsce koncentracji i mobilizacja kapitału ( wszystko jest kapitałem ) i dobra alokacja go w inwestycje. Wszędzie byli premiowani za swój wysiłek wynalazcy, innowatorzy i mądrzy przedsiębiorcy. Wszyscy stosowali i stosują protekcjonizm. Bez sprawnego państwa z jego instytucjami nie ma rozwoju.
Od 1866 roku zaczęło narastać napięcie między Prusami jednoczącymi Niemcy podzielone na bezsilne księstwa a Francją, która chciała temu zapobiec widząc z tym przyszłe zagrożenie swojej pozycji. Napoleon III w 1870 roku wypowiedział Prusom wojnę którą przegrał. Na mocy pokoju frankfurckiego zawartego 10 V 1871 we Frankfurcie, Francja musiała m.in. zapłacić jako odszkodowanie wojenne 5 mld franków w złocie i inne kwoty co dawało 1450 ton złota ! Niemcy te środki zainwestowali w rodzący się przemysł elektrotechniczny, chemiczny, metalurgie i dokapitalizowali banki. Wszystkie wielkie obecne zachodnioniemieckie koncerny i banki otrzymały środki z tych reparacji ! Gdyby te pieniądze skierowano na konsumpcje zakończyłoby się to potężną inflacją i destabilizacją gospodarki. Choć do spekulacji użyto tylko cząstki tych środków i tak doszło do pewnej destabilizacji.
Nasz północny sąsiad jest jednym z najbogatszych krajów świata ale jeszcze w połowie XIX wieku był biedny. Mocny rozwój Szwecji przyniosła dopiero druga rewolucja przemysłowej w okresie 1890-1930. Tak samo jak nazwiska niemieckich, nazwiska szwedzkich wynalazców, innowatorów i przemysłowców stały się znane w całym świecie. Inwestycje finansowała Sztokholmska Giełda Papierów Wartościowych założona w 1866 roku oraz cała sieć banków rzetelnie nadzorowana przez Szwedzki Bank Narodowy stworzony już w 1668 roku. Był on pierwszym bankiem centralnym w świecie. Do finansowania industrializacji pchał się też masowo obcy kapitału. Szwecja przed I Wojną Światową była jednym z większych dłużników w świecie. W czasie wojny szwedzkie firmy handlowały ze wszystkimi i w rezultacie w wojnie Szwecja spłaciła długi i stała się po wojnie jednym z większych wierzycieli świata. Szwecja de facto kolaborowała z Hitlerem i w czasie II Wojny jej gospodarka rozwijała się gdy kontynent legł w gruzach.
W końcu rozsądek zapanował w Chinach i oczywiście zaczęły się one rozwijać !
6. Hasła „optymalna alokacja kapitału w inwestycje” (od niej zależy szybkość rozwoju ) nie da się jeszcze automatycznie przetworzyć w ciąg decyzji.
Wadliwy ustrój gospodarczo – społeczny wyklucza optymalność.
Algorytm programowania liniowego Simplex opracował w 1947 roku George Dantzig. W czasie wojny pracował nad metodami planowania dla US Army a po wojnie usiłował proces zmechanizować. Pod koniec lat pięćdziesiątych algorytm zaprogramowano na komputerach. Na największych maszynach udoskonalony (macierze są bardzo rzadkie ) algorytm rozwiązuje zadania z ponad 10 tysiącami zmiennych !
Simplex i wiele innych algorytmów optymalizacji tworzą gałąź Badań Operacyjnych, która jest w pożytkiem stosowana na Zachodzie a szczególnie w Japonii.
W czasie wojny badacze optymalizowali alianckie naloty na III Rzeszę i kolaborującą z nią Francję.
R.Stark, R.Nichols, Matematyczne podstawy projektowania inżynierskiego, PWN 1979 podaje przykłady stosowania metod optymalizacji.
Procedury optymalizacji są czasem dostępne w bibliotekach. Wydruki trochę starych programów zawiera J.Kucharczyk, M.Sysło, Algorytmy Optymalizacji w języku ALGOL 60, PWN, 1977.
Dlaczego w Polskiej gospodarce metody Badań Operacyjnych nie są stosowane ?
Dlaczego w Polsce metody Optymalizacji w inżynierii nie są stosowane ?
Prawdopodobnie dlatego że trudno jest sensownie sformułować zadanie.
Prawdę powiedziawszy stosowanie w Polsce komputerów w księgowości daje szkody a nie pożytek dlatego że zatrudnienie po „komputeryzacji” działu rośnie ! Między prostackim zastosowaniem komputerów w księgowości a optymalizacją jest przepaść w trudności.
Metody badań operacyjnych usiłuje wdrożyć radzieckie planowanie ale w gospodarkach RWPG ceny są fikcyjne ( one niosą bezcenną informacje ) i zadanie jest niewykonalne. W nakazowo rozdzielczej planowej gospodarce niedoboru i inflacji biurokratyczne ceny są fikcyjne jako szum.
7.Żaden z krajów Zachodu, nawet USA i Japonia, nie jest samodzielny technologicznie i produkcyjnie. Siemens jest potężnym narodowym koncernem elektrotechnicznym RFN. DataBook 1980/81 „ICs for entertaiment Electronics” jest o układach scalonych głównie do TVC i sprzętu Audio. Układy były nowoczesne ale jest ich niewiele ale produkowanych masowo. Oferta IC do systemów elektroniki przemysłowej a w tym automatyki też nie jest duża. Ale są to układy trafione do większych potrzeb. Do mniejszej produkcji finalnej IC są importowane ! Firmy niemieckie niczego tej klasy co AD i BB nie produkują bowiem jest to niecelowe!
Polska to realnie 1/8-1/10 gospodarki RFN. Nasze Cemi jest po prostu dużo za małe aby mieć szeroki asortyment produkcji !
Inicjatorem kontroli technologicznego zachodniego eksportu COCOM są USA ale część krajów słabo przestrzega ograniczeń . Jednym z nich jest Francja prowadząca od zawsze politykę niezależną od USA. Na początku lat siedemdziesiątych kupiliśmy technologie mikroelektroniczną od Francji ale nie potrafiliśmy jej modernizować i rozwijać. Tak samo było z technologią kupioną od Thomsona, RCA, Grundiga, AEG. Zatem bez ulepszenia systemu gospodarczego kolejne zakupy technologii, choć możliwe, nie mają sensu.
Postęp technologi w Polsce polega na imporcie technologii a zatem trzeba wypracować nadwyżki handlowe ze światem. Znów optymalizacja.
8.Co decyduje o poziomie płac w krajach świata ? Decyduje o tym ( dobrze wyjaśniona danymi hipoteza autora ) własny eksportowy sektor dóbr handlowalnych międzynarodowo. Gdy eksportowane są drogie nowoczesne, konkurencyjne na światowym rynku wyroby płace są wysokie jak w Zachodnich Niemczech. Gdy eksportowany jest węgiel ( lub inne surowce ) jak z Polski płace są bardzo niskie.
Nowoczesny eksport mają tylko kraje posiadające silną naukę i zdolność tworzenia nowoczesnej technologii. W Polsce biurokraci udają naukowców.
O rozwój technologi dbają wielkie koncerny które są oczkiem w głowie rządów. Znakomicie rozwój technologiczny w USA pchnął do przodu program kosmiczny Apollo. Produkująca znakomite sensory ( a nawet analizatory ) obecnie duża firma Rosemount mocno wyrosłą na tym programie. Mała demograficznie bogata Szwecja ma silne nowoczesne koncerny „światowe” a wśród nich ASEA. Siemens jest narodowym koncernem elektrotechnicznym Niemiec. USA szybko zdały sobie sprawę że likwidacja niemieckich koncernów uczestniczących w zbrodniach wojennych III Rzeszy zniszczy gospodarkę Niemiec Zachodnich i zrezygnowały z ich likwidacji założonej w procesie denazyfikacji.
Komunały – Tanio kupić i drogo sprzedać, Się nie narobić i dużo zarobić - mają zastosowanie w całych gospodarkach bogatych krajów. Po mechanizacji produkcji i postępach w automatyzacji obecnie w I Świecie zarabia się głową a nie wysiłkiem fizycznym mięśni !
Małe i średnie firmy nie kreują technologi, bogactwa i pozycji kraju. Mimo iż na Zachodzie piekarz, fryzjer, kierowca... zarabia wielokrotnie więcej niż Polak to wykonuje tą samą pracę to jego praca na światową pozycję kraju ma znikomy wpływ.
9.Konstruując urządzenie ( elektroniczne lub z wbudowaną elektroniką ) staramy się minimalizować stosunek kosztów do jakości-funkcjonalności. Wynika to wprost z algorytmu działania firmy kapitalistycznej pragnącej osiągnąć jak największy zysk ze sprzedaży na konkurencyjnym rynku. Dotowana firma socjalistyczna z kolei tak maksymalizuje zadowolenie społeczne i szybkość rozwoju gospodarki. Wymagana minimalna funkcjonalność jest często skwantowana normami państwowymi dla klas urządzeń.
Sformułowanie funkcji jakości – funkcjonalności jest trudne ale bardzo użyteczne.
10.Zachodnioniemieckie normy DIN przykładowo podają minimalne wymagania na sprzęt audio klasy Hi-Fi. Radzieckie normy GOST podają wymagania na sprzęt audio oraz odbiorniki TV i TVC w poszczególnych klasach jakości. Normy tego rodzaju ułatwiają konsumentom orientacja co do stosunku jakości do ceny produktu i podjęcie dobrej decyzji zakupu.
Są normy dotyczące dokładności sensorów.
Normy ( które są obowiązującym prawem ) muszą być stanowione rozsądnie i adekwatne do stanu technologii raju. Przyspieszają on wzrost gospodarczy i ułatwiają wszystkim życie a firmom prace. Normy nierozsądne opóźniają wzrost gospodarczy. Wydaje się że Polska w dziedzinie elektrotechniki winna tłumaczyć lub tylko okładkować międzynarodowe normy IEC.
11. Masowa produkcja o rosnącej wydajności powoduje wzrost dostępności cenowej i upowszechnienie konsumpcji wszelkich towarów i usług.
Najbardziej skomplikowanym masowym produktem elektroniki jest odbiornik telewizji kolorowej. Odbiorniki te mają coraz więcej funkcjonalności a mimo to ciągle realnie w świecie tanieją. Teletext jest systemem cyfrowej łączności komputerowej. Japońskie koncerny elektroniczne eksportują ogromną ilość elektroniki konsumpcyjnej faktycznie likwidując konkurencyjną produkcje jej w Zachodniej Europie i USA. Wschodzącą gwiazdą mikroelektroniki i elektroniki jest Korea Południowa.
Mimo współpracy wojskowej i form współpracy gospodarczej kraje paktu NATO ostro ze sobą rywalizują. Systemy kapitalistyczne Zachodu są dalece różne.
Trzeba szukać dla siebie optymalnej niszy do eksportu.
12.Monolityczne układy scalone upraszczają konstrukcje urządzeń z nimi i umożliwiają produkcje urządzeń o rosnących funkcjonalnościach i spadającej cenie . Komputer CDC6600 miał typowo około 400 tysięcy dyskretnych tranzystorów. Zbudowane z hybrydowych układów scalonych SLT duże komputery IBM S360 miały nawet ponad 20 tysięcy tych układów. Ale jednak najwydajniejsze maszyny w rodzinie S360 zbudowano na monolitycznych, niekomercyjnych układach ECL.
W ZSRR do elektroniki konsumpcyjnej produkowano ( możliwe jest że są jeszcze produkowane ) hybrydowe układy K2xxAxx zawierające monolityczny chip z 6 tranzystorami i płytkę z grubowarstwowymi rezystorami. Byłą to droga donikąd i uruchomiono produkcje monolitycznej linii K174 czyli kopii układów Philipsa i częściowo Siemensa. Zresztą już wcześniej kopiowano wcześniejsze układy monolityczne. Prawo USA zabranie kopiowania masek układów scalonych ale nie zabrania użycia tego samego schematu układu. Jednak zachodni „drudzy” producenci układów scalonych aby nie być pozwanymi z reguły schemat odrobinę zmieniają często ulepszając pierwowzór.
Zresztą koncerny Philips i Siemens w katalogach umieszczały schematy układów scalonych pod warunkiem że mieściły się na dwóch, trzech stronach a budowę ich omawiano w publikacjach koncernów i jej autorów w czasopismach naukowych.
Radziecki odpowiednik pierwszego monolitycznego układu OPA uA702 ma odrobinę zmieniony schemat i nominalnie gorsze parametry katalogowe. Proste radzieckie TTL serii K155 ( jak stare Texas Instruments rodziny 74XX ) miały podawany czas propagacji 20 ns a nie 10 ns jak oryginalne TI ale faktycznie czasy propagacji bywały takie same. Radziecka mikroelektronika ma rzekomo opóźnienie 8-10 lat do zachodniej.
Świadomość tego ze zapóźniona mikroelektronika jest hamulcem rozwoju wydaje się w ZSRR powszechna od dawna. W radzieckim Radio 1979/5 ( dla radioamatorów ) jest dwustronicowy artykuł „Mikroprocesory u nas doma” omawiający zastosowania mikroprocesorów i mikrokontrolerów w sprzęcie RTVC, Audio, grach TV ( program prostych szachów zajmuje rzekomo zaledwie 1 KB pamięci ROM programu), magnetowidach, domowych mikrokomputerach, kuchence mikrofalowej i pralce. W artykułach jest coraz więcej odnośników do zachodniej literatury.
Lata minęły i do tego można dodać tylko Teletekst do TVC.
Koszt projektu i oprzyrządowania sprawia że monolityczne układy są tanie tylko w masowej produkcji.
Radiofonia AM na zakresach fal długich i średnich jest zimnowojennym przeżytkiem. W myśleniu życzeniowym – magicznym potężne centralne radiostacje AM z wielkimi masztami antenowymi przetrwają zaskakujący atak wroga. Jakość odbioru jest niska a pojemność informacyjna tych fal jest znikoma. Siemens od dawna produkuje układ TCA440 ( Philips ma podobny ) odbiornika AM na fale długie i średnie. Ale odbiornik na 3 tranzystorach ma podobne parametry i niewiele więcej tanich elementów. Ale superheterodynę AM może też zrobić na dwóch współczesnych tranzystorach.
Wykonane na zachodzie Europy badania wskazują na znikomą słuchalność radiowych stacji AM.
Mają one racje bytu na ogromnych pustkowiach ZSRR i są dość popularne w odbiornikach samochodowych w USA gdzie gęstość zaludnienia jest mniejsza niż w Europie.
Zatem nie ma celu uruchamianie w Polsce produkcji kopii układu TCA440 lub podobnego.
Należy uruchomić produkcje czegoś z czego jest konkretny pożytek w dużej produkcji.
Technologią monolityczną produkowane są filtry SAW pośredniej częstotliwości do odbiorników TVC. Konstrukcja toru pośredniej częstotliwości jest bardzo uproszczona a jego jakość dzięki SAW dramatycznie wzrasta i możliwe jest ( płaska charakterystyka opóźnienia grupowego i brak zniekształceń sygnału ) użycie dekodera Teletekstu.!
13. Pierwsze układy OPA JFet składały się z monolitycznego bipolarnego OPA z dodaną wejściową parą tranzystorów JFet. Udawało się to zmieścić w obudowie TO100 gdzie typowo był obudowany monolityczny układ scalony OPA lub inny. Wyszły z użytku zastąpione przez układy monolityczne.
Równolegle z rozdzielczością technologii monolitycznej wzrasta rozdzielczość procesu fotolitografii do płyt drukowanych PCB. Bujnie rozwija się technologia montażu powierzchniowego SMD a oferta elementów SMD jest coraz szersza. Nowe modele tranzystorów i układów scalonych mają już równolegle do obudowy klasycznej obudowę SMD. Dawniej elementy SMD nazywane były elementami do układów hybrydowych.
Wydajna linia do montażu elementów SMD na PCB może ich w ciągu godziny zmontować ponad 700 tysięcy. Wydajność pracy skomputeryzowanych maszyn jest więc ogromna a jednostkowy koszt montażu wręcz znikomy. Zatem ich użycie do masowej produkcji na eksport stwarza duże szanse rozwoju. Czyli trzeba znaleźć optymalną nisze dla eksportu.
14.Rynek światowy płaci za produkty nowoczesne i złożone. Coraz mniej płaci za prostą pracę fizyczną i proste produkty.
Są istotne informacje jawne, półjawne i tajne. Znane są schematy różnych scalonych układów analogowych i cyfrowych ale w miarę ich komplikacji wewnętrzne schematy przestają być dostępne. Zresztą już w 1969 roku nie podano schematu ideowego ( na poziomie Q i R ) ALU 74181 rodziny TTL a tylko schemat logiczny.
Znany jest tylko ideowy schemat 4 bitowego mikroprocesora Intel 4004. Układ jest prymitywny.
W naszej próbie produkcji mikroelektroniki skorzystaliśmy z importu linii produkcyjnej od firm z Francji i zakupu kompletów gotowych masek do produkcji. Za zasłoną licencji na amplituner Elizabeth dostaliśmy trochę starych masek od Sanyo. Za zasłoną licencji na kineskop PIL od RCA też dostaliśmy trochę starych masek i prawo do kupowania chipów tranzytów i tyrystorów.
Gdy rynek światowy został zawalony układami do kalkulatorów, które bardzo staniały, racjonalne było tanie kupienie do produkcji na potrzeby kraju kompletu masek i dokumentacji od producenta który się wycofał z tego interesu. Gdy po 1978 roku brakło dolarów na import rozwój Cemi się zakończył.
Polska nie musi produkować mikroelektroniki ale bez jej stosowania w złożonych wyrobach szanse rozwoju i dorównania Zachodowi są małe.
Kraje „rozwijające się” korzystają z renta zapoźnienia i Polska też z niej powinna intensywnie korzystać.
Jednak bez szczegółowych danych optymalny kierunek zmian dla eksportu jest niemożliwy do wyznaczenia.
O rozwoju technologicznym kraju nie decydują piekarnie, fryzjerzy …. ale koncerny.
15.Sensory stanowią istotną część kosztu systemu automatyki przemysłowej. Produkcją ich trudnią się narodowe koncerny elektrotechniczne jak Siemens i giganci jak General Electric i Honeywell oraz duże firmy jak Rosemount. Poważnie o sensorach w Polsce traktuje tylko Z.Trybalski.
Sensory ma też kontroler wtrysku paliwa do silnika samochodowego z mikrokontrolerem a perspektywy zastosowania tanich sensorów monolitycznych są kolorowe.
Wymagana dokładność sensorów jest różna. Sensor pracujący z regulatorem Slave w kaskadzie nie musi być z reguły dokładny. Ale sensory przepływu substancji rozliczanej handlowo ( ropa, paliwa , gaz ,woda ) muszą być dokładne. Sensory są źródłem sygnału o mierzonej (a nawet analizowanej ) wielkości. Drogą nowością jest interface cyfrowy sensora.
Impedancja wewnętrzna sensorów może być bardzo różna.
Źródłem sygnału są też mikrofony.
-Mikrofon wstęgowy o małej oporności daje bardzo mały sygnał zawsze podniesiony transformatorkiem z rdzeniem permalloyowym o ogromnej przenikalności. Moc sygnału za transformatorkiem jest jednak trochę mniejsza.
-Sygnał z mikrofonu dynamicznego o średniej impedancji nie potrzebuje transformatora i można go małoszumnie wzmocnić
-Mikrofon pojemnościowy jest zasilany napięciem stałym rzędu >50V lub używa trwale naelektryzowanego elektretu. Pojemność jest niewielka i impedancja wewnętrzna jest ogromna. Stosowany jest mały tranzystor JFet jako wtórnik źródłowy lub kondensator jest elementem obwodu RF z demodulatorem FM. Sygnał z mikrofonu pojemnościowego ( DC lub elektretowego ) z wtórnikiem jest największy a w złożonym systemie RF sygnał jest dowolny.
Źródłem sygnału są wkładki gramofonowe:
-Impedancja nowoczesnej wkładki Moving Coil jest mała ale mały jest też sygnał i potrzebny jest specjalny układ przedwzmacniacza
-Impedancja standardowej wkładki Moving Magnet jest średnia ale średni sygnał jest łatwy do wzmocnienia
-Impedancja podłej wkładki piezoelektrycznej jest duża ale sygnał sięga 1 Vac !
16.Urządzenia elektroniczne dzielą się na profesjonalne (w tym militarne) produkowane niewielkimi seriami i elektronikę konsumpcyjną produkowaną masowo.
W koszcie elektroniki profesjonalnej dominuje koszt opracowania urządzenia a w tym stworzenia programu dla mikrokontrolera i komputera jeśli jest używany w systemie.
W masowej elektronice konsumpcyjnej dominuje koszt wszystkich elementów elektronicznych i mechanicznych i ich montażu. Nic dziwnego że bardzo mocna w automatyzacji i robotyzacji Japonia swoim eksportem elektroniki wypiera firmy zachodu z ich rynku.
Polska jest dużym światowym eksporterem nienowoczesnej, taniej broni. Bez wyposażenia czołgu T-72 w system kierowania ogniem z dalmierzem laserowym oraz stabilizacją działa stanie się on niesprzedawalny na rynku światowym. Mimo taniości.
Wbudowana elektronika profesjonalna ma obecnie coraz większy wpływ na funkcjonalność i cenę całego urządzenia.
Wyrafinowanym urządzeniem z mikrokontrolerem oraz sensorami jest samochodowy komputerek sterujący wtryskiem paliwa oraz zapłonem. W samochodach jest generalnie coraz więcej elektroniki. Bez tego komputerka samochody na Zachodzie będą niesprzedawalne.
Elektronika profesjonalna jest bardzo droga i z reguły objęta kontrolą eksportu ze strony Zachodu.
Korzyści z automatyzacji są potężne i wysokie koszta szybko się amortyzują.
17.W układach elektronicznych występują następujące szumy fizyczne:
A.Szum termiczny Johnsona ma stałą gęstość widmową. Przypadkowe ruchy elektronów w przewodniku są proporcjonalne do temperatury T. Napięcie tych szumów na przewodniku o oporności R w paśmie B wyraża równanie Nyquista. Szum ten nie zależy od wielkości przepływającego prądu. En=sqrt(4kTRB) gdzie k to stała Boltzmana.
B.Szum Schottky czyli szum kwantowy ma stałą gęstość widmową. Wynika z tego że elektron jako nośnik ładunku w prądzie jest najmniejszą jednostką (=kwantem) ładunku.
Prąd tego szumu generowany przez złącze wynosi In=sqrt((2qI+4qIo)B) gdzie q to ładunek elektronu a I to prąd płynący przez przewodzące złącze lub (tylko jeden z nich ) Io prąd wsteczny złącza.
C.Gęstość widmowa szumu różowego „flicker noise” 1/f rośnie ze spadkiem częstotliwości. Ma on stałą energie w każdej dekadzie lub oktawie. Jego energia w pełnym paśmie częstotliwości od 0 Hz byłaby nieskończona. Źródła tego szumu są dalej częściowo nieznane mimo wysiłku fizyków. W półprzewodnikach powodują go m.in. zaburzenia siatki krystalicznej. Poziom i staranność technologi decyduje o wielkości tych szumów w półprzewodnikach. Występują one też w rezystorach węglowych a w rezystorach drutowych są bardzo małe. Szum 1/f jest proporcjonalny do prądu stałego Idc płynącego przez przyrząd !
Wejściowy napięciowy szum 1/f Mosfetów dominuje przy częstotliwościach niższych od 10-100 KHz i jest ogromny mimo iż dwubramowe Mosfety mają najniższe całkowite szumy w zakresie 10-1000 MHz ze wszystkich elementów aktywnych mając przy tym największe wzmocnienie z możliwością jego regulacji napięciem stałym. W układach bipolarnych szum 1/f dominuje poniżej częstotliwości 1 Hz – 1 KHz a więc różnice w jakości producentów są przeogromne.
W OPA NE5532 do zastosowań Audio przy częstotliwości 1 KHz szum prądowy daje na rezystorze 7 KOhm takie napięcie jakie jest napięcie szumów wejściowych. Ale przy częstotliwości 100 Hz jest to tylko 2.6 KOhm. Szum wejściowych prądów 1/f rośnie zatem znacznie szybciej niż szum napięciowy.
Z uwagi na powolność szumu 1/f można go zapisać rejestratorem używanym w przemyśle na taśmie papieru lub zarejestrować komputerem z przetwornikiem ADC.
Na wykresie pokazano efekt okresowego co 100 okresów autozerowania szumu typu 1/f. Jest to filtrowany dolnoprzepustowo szum nie Gaussowski. Autozerowanie mocno zmniejszyło jego wartość skuteczną.
D.Szumy lawinowe występują przy przepływie prądu przez wstecznie spolaryzowane złącze pn. Są one bardzo duże i mają stałą gęstość widmową. Maleją wraz z przepływającym prądem co wyklucza stosowanie diod Zenera w układach mikromocowych. W układach scalonych najlepiej jest ich nie używać. Można ich użyć jako normalnie nie działających elementów zabezpieczenia.
E.Szumy wybuchowe „popcorn” wzięły nazwę z podobieństwa dźwięku tych szumów do smażonego popcornu. Występują tylko w starszych „brudnych” technologiach półprzewodnikowych.
Nie wszystkie szumy mają rozkład Gaussowski mimo iż dominuje on w zjawiskach przyrody.
Szum Gaussowski o wartości skutecznej 1 chwilowo, średnio (!) przekracza wartość 3 przez 0.3% czasu. Czyli przez 99.7% czasu szum ma wartość mniejszą od 6 peak – peak. Wartość międzyszczytowa p-p jest użyteczna z racji łatwości obserwacji obwiedni procesu !
Z wymienionych szumów tylko szum termiczny Johnsona i szum kwantowy Schottky mają rozkład prawdopodobieństwa Gaussa !
Zakłóceniem jest wszędobylskie pole elektromagnetyczne 50/60 Hz od linii energetycznych oraz fale radiowe. Normy limitują wielkość wytwarzanych zakłóceń radiowych przewodzonych (0.15-30 MHz ) i promieniowanych ( aż do mikrofal ) tak aby były on wielokrotnie mniejsze od nadawanych fal radiowych niosących informacje.
18.W kompletnych ( czyli z sensorem ) systemach pomiarowych ( pomijając nieliniowość ) występuje błąd Zera i błąd Skali.
W układach precyzyjnych zastosowanie technologii MOS / CMOS z racji ogromnych szumów napięciowych 1/f było niemożliwe do czasu pionierskiego zastosowania okresowego autozerowania w układzie miernika CMOS ICL7106 (zerowanie w każdym pomiarze, najczęściej 2 na sekundę ) i wzmacniacza operacyjnego ICL7650 (z reguły 400 Hz).
Najlepszym wzmacniaczom operacyjnym podaje się dryft starzenia. Dryft miesięcznego starzenia wynosi często tyle ile dryft wejściowego napięcia niezrównoważenie na jeden stopień C. Jest on większy niż wynikający z szumu 1/f !
W systemie pomiarowym z sensorem zerowanie ( raz na dzień - rok - 10 lat ) przeprowadza się gdy wielkość fizyczna jest zerowa. Na przykład gdy na wadze nie ma żadnego przedmiotu.
Z wymienionych szumów Zerowanie dotyczy tylko i wyłącznie szumów 1/f o bardzo niskich częstotliwościach. Przede wszystkim pokrywa zmiany starzeniowe elementów systemu.
Algorytm Zerowania można zatem stosować tylko eliminując pozostałe szumy co jest trudne. Zły algorytm jest antytezą Zerowania i powiększa błędy systemu ! Sprawa kompensowania wpływu temperatury jest kontrowersyjna i Zerowanie powinno być przeprowadzone w stanie ustalonym pracy nagrzanego urządzenia.
Zmiany wartości elementów biernych i parametrów układów czynnych skutkują błędami Zera i Skali.
19.Wzmacniacze Operacyjne OPA i Wzmacniacze Pomiarowe IA produkowane są w technologi bipolarnej, bipolarnej z użyciem tranzystorów Super Beta, BiFet, BiMOS oraz CMOS. Względną nowością są wzmacniacze operacyjne CMOS z autorównoważeniem.
Modułowe wzmacniacze elektrometryczne pracowały z modulatorem z diodami pojemnościowymi. Inne wzmacniacze modułowe pracowały z przetwarzaniem sygnału czyli chopper.
Zjawiska szumów generowanych przez tranzystory okazują się nie do końca jasne.
Producenci tranzystorów podaję gęstości spektralne generowanych przez tranzystory wejściowych szumów napięciowych i prądowych zależne od prądów i częstotliwości pracy lub wygodniej współczynnik szumów dla różnych rezystancji źródła sygnału. Tranzystorom ogólnego przeznaczenia szumy podawane są dla częstotliwości akustycznych i trochę większych a dla tranzystorów RF w sugerowanych zakresach częstotliwości ich zastosowań.
W Siemens Data Book 1980/1981 „Transistors” wykresy szumów dla wszystkich rodzin tranzystorów małosygnałowych BC wydają się te same !
Im wyższa jest częstotliwość 120 / 1000 / 10 KHz pomiarów tym odrobinę większy dla danej Rg jest optymalny prąd kolektora i niższy optymalny współczynnik szumów. Z uwagi na rezystancje rozproszenia bazy Rbb ( zależnie od prądu kolektora Ic sama rezystancja rozproszenia bazy Rbb jest w przedziale 100-500 Ohm ) uzyskanie przy małych opornościach źródeł małych szumów jest niemożliwe. Dla małych rezystancji źródła sygnału Rg mniejsze szumy uzyskamy z tranzystorami o większej powierzchni i z większym prądem kolektora.
Oczywiście w układzie wzmacniacza szumy wnoszą też dalsze stopnie. Jednak w poprawnie skonstruowanym układzie OPA winny one być bardzo małe na tle szumów pary wejściowej. Ta jest w ogromnej większości OPA.
N.B.To że drugi stopień wzmacniacza może wnieść duże szumy nie dociera do polskich konstruktorów sprzętu Audio.
Już przy częstotliwości 120 Hz szumy przy za dużym prądzie kolektora przy dużej rezystancji wejściowej źródła potrafią być duże a nawet wielkie. Dla tych tranzystorów częstotliwość poniżej której dominują szumy typu 1/F wynosi poniżej 50 Hz i prawdziwie duże szumy mamy przy małych częstotliwościach rzędu mHz i uHz.
Moc szumów odnosimy do mocy sygnału źródła. Ale chociaż moc sygnału z termopary nie jest mała to nie ma OPA który by miał mały poziom szumów z taką małą opornością źródła.
Szumy typu 1/F w przyrodzie występują w wielu zjawiskach. Badania wskazują że nie ma najmniejszej częstotliwości przy której szumy 1/F przestają rosnąć !
W bipolarnych OPA uA741 prąd emiterów wejściowej pary różnicowej wynosi 15 uA a precyzyjnym LM725 10 uA a w układzie z tranzystorami SuperBeta LM108 wynosi 8 uA. Odpowiedniki tych układów są produkowane w krajach RWPG ale układu LM108 tylko w ZSRR jako K140UD14.
Tylko umownie powyżej częstotliwości 0.1 Hz są szumy a poniżej jej dryfty !
Prezentacja tego jak mocno szumy 1/F potrafią zakłócić pomiar małego napięcia z termopary lub Load Cell (mostek tensometryczny) trafia każdemu do przekonania i uświadamia grozę szumów 1/F ! Producenci podjęli ulepszające technologie monolityczną środki do zmniejszenia szumów 1/F.
Wzmocnienie tranzystorów SuperBeta w układzie LM108 wynosi około 5000 tysięcy i wejściowy prąd polaryzacji wejść układu lM108 wynosi w temperaturze pokojowej 0.8 nA a prąd niezrównoważenia wynosi 0.05 nA z dryftem 0.5 pA / C. Podany na wykresie Offset Error podwaja się przy rezystancjach wejściowych ca 10M Ohm a Drift Error przy ca 8 MOhm ale szumy podwajają się już przy rezystancji ca 150 KOhm !
Lampowe wzmacniacze operacyjne zasilane były napięciem aż +-350 V. Obecnie w systemach część analogowa może mieć zasilanie +-15V a część cyfrowa 5V.
Dla krzemu iloczyn materiałowy Ft x Uceo jest stały co oznacza ze szybkie tranzystory mają małe napięcie Uceo. Generalnie im wyższe jest napięcie Uceo tranzystora bipolarnego tym mniejsza jest jego częstotliwość graniczna Ft i większy czas wyjścia z nasycenia oraz coraz większy obszar quasi nasycenia i mniejsze wzmocnienie prądowe. Ts dla tranzystora o Uceo = 800 V wynosi 10 usec a dla tranzystora o Ft>10 GHz i Uceo=9 V wynosi 1 nsec. Tranzystory o małym Uceo mają duże Ft, duże wzmocnienie prądowe i małe napięcie nasycenia. Są w każdym aspekcie przeciwieństwem tranzytów wysokonapięciowych !
W układach logicznych ECL nowych rodzin Ft tranzystorów przekracza 5 GHz a Uceo tranzystorów wynosi około 10 V. Tak więc zasilane niskim napięciem układy OPA wykonane współczesną technologią o dużej rozdzielczości mogą mieć potencjalnie bardzo szerokie pasmo i małe szumy.
W analogowym regulatorze PID znaczne napięcie zasilania było korzystne dla redukcji błędu całowania I i różniczkowania D. Ale gdy sygnał z sensora podajemy do przetwornika ADC duże napięcia nie są faktycznie potrzebne pod warunkiem odpowiedniej konstrukcji OPA lub IA.
Zakres sygnału 0-5V już pozwala go przetworzyć z dokładnością ponad 16 bitową.
Dla dużych rezystancjach źródeł sygnału lepsze od bipolarnych są wzmacniacze BiFet. Wzmacniacze BiFet z celowo małymi rozmiarami tranzystorami pary JFET z dodatkową dobrze aranżowaną topgate są zdecydowanie najlepsze w grupie „wzmacniaczy elektrometrycznych”
Systemy automatyki mają określony do współpracy z sensorami standardowy sygnał 0..10V, 0/1-5 mA lub 0/4-20 mA. Zasilane energią elektryczną ( w różny sposób ) sensory (a nawet analizatory ) mają zatem własna wbudowaną elektronikę. Wyjątkiem są duże grupy sensorów RTD jak PT100 i termopar ( najczęściej K ) oraz potencjometrów. System automatyki może z nimi pracować bezpośrednio. Sensory te nie mają zatem swojej elektroniki i są znacznie tańsze.
20.Tranzystor polowy złączowy znany był już teoretycznie w 1936 roku ale nie było technologii do wytworzenia użytecznych tranzystorów. Masową ich produkcje podjęto w latach sześćdziesiątych.
Gro produkcji to modele o przeciętnej geometrii. Tranzystory a najczęściej pary różnicowe „Small Geometry” mają bardzo małe wymiary i bardzo małe prądy bramki. W temperaturze pokojowej pary tranzystorów 2N5902...5909 mają przy prądzie drenu Id=30 uA i niedużym napięciu Uds prąd bramki rzędu 0.1 -0.2 pA ! W JFetach występuje prąd jonizacji zderzeniowej i dla małego prądu bramki prąd drenu i napięcie Uds powinny być małe. Szumy rosną z temperaturą. Tranzystory JFet o dużej geometrii mają moc start do 2 W. Prąd bramki tranzystora JFet podwaja się co 10 C i przy wzroście temperatury od 25 C do 125 C rośnie tysiąc razy.
Mniejsze prądy bramek mają tylko Mosfety ale i szumy typu 1/F przy małych częstotliwościach są ogromne a w JFetach znośne. Do ochrony bramki JFeta wystarczy szeregowy rezystor a bramka Mosfeta musi być chroniona elementami aktywnymi ( D i DZ ) które dają „potężny” upływ na tle samej bramki !
Napięcie szumów JFetów spada wraz z rosnąca powierzchnią tranzystora i rosnącym prądem drenu. JFety Small Geometry mają circa 2-3 razy większe napięcie szumów niż seria standardowa. W zastosowaniach do „sensorów elektrometrycznych” te tranzystory także w monolitycznych OPA są nie do pobicia i z zapasem wystarczające.
Zachodnie tranzystory JFet o większej powierzchni niż standardowe jak P8002 Texas Instrument w obudowie TO202 o mocy 2W nie przyjęły się mimo pewnych zalet. Ale japońskie JFety 2SK170 w obudowie TO92 o dużym Idss i dużym nachyleniu pracując z prądem Id=1 mA przy częstotliwości 1 KHz mają współczynnik szumów bliski 0 dB z rezystancją źródła 200 Ohm – 100 KOhm ! Ponieważ powierzchnia jest znaczna i pojemność zwrotna bramki Cdg wynosi aż 6 pF to może być konieczna praca w kaskodzie z tranzystorem NPN. Są ( i podobne , także pary różnicowe ) powszechnie stosowane w japońskim sprzęcie Audio wysokiej klasy i ośmieszają konkurencję.
JFet 2SK170 ma (>1KHz ) i Id=1 mA widmową gęstość szumu napięciowego 0.95 nV/pHz czyli para ma szum 1.41.. x 0.95 = 1.34 nV/pHz. Z większy prądem Id szum jest trochę mniejszy ale przyrost temperatury podnoszącej szumy może zniweczyć ten efekt. Para różnicowa ze „small geometry” JFetami ma 60 nV/pHz ! Zatem różne JFety mogą obsługiwać zarówno źródła sygnału o małej oporności wewnętrznej jak i największej czyli ogromnej.
W masowych małomocowych wzmacniaczach operacyjnych serii TL061,2,4 oraz LF441,2,4 zastosowano w wejściowej parze różnicowej tranzystory o zmniejszonej powierzchni. W rezultacie w temperaturze pokojowej prąd polaryzacji wejść wynosi<5 pA zamiast 30-50 pA jak we wzmacniaczach standardowych. Ale szumy napięciowe są 1.5-2 raza większe.
Fizyka Mosfeta i JFeta używana jest w odkrytych sensorach Biochemicznych:
ADFET: ADsorption FET
ISFET: Ion Sensitive FET
-detection of DNA hybridization
-biomarker detection from blood
-antibody detection
-glucose measurement
pH sensing
ENFET: ENzymemodified FET
ChemFET: Chemical FET
PRESSFET: PRESSure sensor FET
GASFET: GAS sensor FET
CFT:Charge flow transistor
Wadą wzmacniaczy BiMOS i BiCMOS oraz CMOS ( najpopularniejsze są tanie CA3130 i 3140 ) są bardzo duże szumy 1/f.
21.CMOS
Na przełomie lat 60/70 procesor minikomputera zbudowany z układów MSI i LSI (ROM mikroprogramu ) mieszczący się na jednej bardzo dużej płycie drukowanej nazwano mikroprocesorem. Nazwa ta niedługo przylgnęła do scalonych procesorów !
Mikroprocesor Intel 8008 ( późniejszy o dwa lata 8080 jest mocno ulepszony ) zastąpił procesor zbudowany z ponad 100 układów TTL. Na razie scalone mikroprocesory gonią za minikomputerami i komputerami ale gdy je prześcigną powstanie poważne pytanie o architekturę superprocesorów przyszłości !
Technologia PMOS jest najprostsza produkcyjnie i znacznie gęstsza niż bipolarna. W tej samej rozdzielczości tranzystor P jest circa 3 razy wolniejszy niż N i układ PMOS wymaga większego napięcia zasilania. Niemniej technologia PMOS w ilości produkowanych mikrokontrolerów i przeróżnych układów specjalizowanych dominowała przez pewien okres. Proste 4 bitowe mikrokontrolery Texas Instrument rodziny TMS1000 wykonane w technologii PMOS są wystarczające do pralki czy prostego urządzenia z grupy RTVC, gry telewizyjnej, inteligentnej zabawki lub kalkulatora.
W trudniejszej technologi CMOS można wykonać szybki procesor ale także jednocześnie złożony układ analogowy i cyfrowy.
Mankamentem tranzystorów Mosfet są przeogromne szumy 1/f.
W znakomitym układzie miernika ICL7106 w technologii CMOS (zawiera przetwornik ADC z podwójnym całkowaniem ) z ekranem LCD zintegrowano dwa wzmacniacze operacyjnych jako wtórni i jako integrator. Zastosowano autozerowanie co cykl ( 2-3 cykle na sekundę ) przetwarzania. Natomiast w OPA ICL7650 autozerowanie jest z częstotliwością circa 400 Hz co pozwala mocniej zredukować szumy 1/f. Układ ICL7106 produkowany jest masowo ( także w ZSRR ) a mierniki z nim ciągle tanieją mimo dokładania im kolejnych funkcjonalności !
Producent podaje aplikacje ICL7106 dla zakresów napięcia wejściowego 200 mV i 2 V. Na zakresie 200 mV szumy nie powodują zaburzenia wyświetlanego Zera. Ale gdy czułość powiększymy do 100 mV to Zero bywa zaburzane i trzeba się przyjrzeć pętli Autorównoważenia. Ma ona dynamikę 2 rzędu z dodatkowym zerem. Dla podanych zakresów 200 mV i 2 V elementy RC są jak najbardziej poprawne i wiadomo jakie mają być optymalne dla dowolnego zakresu.
Szumy napięciowe tranzystorów Mosfet maleją z powierzchnią i z prądem pracy. Można by wykonać układ ICL7106' z większymi tranzystorami par różnicowych OPA i większym prądem zdolny pracować z zakresem 50 mV lub nawet mniejszym co jest bardzo pożądane dla bezpośredniej pracy z sensorami.
Ale:
-Zwiększony pobór mocy byłby wadą (!) w masowym DVM
-Z uwagi na duża pojemność Cgd zwiększonych tranzystorów par różnicowych konieczna byłaby praca w kaskodach co zmniejszyłoby dopuszczalny zakres napięć wspólnych co redukuje elastyczność aplikacyjną i możliwości zastosowań.
Wniosek jest prosty. Projektanci doskonale wiedzieli do czego dążą chcąc opanować jak najwięcej sektorów rynku ! Dążenie do zysku okazało się zbawienne dla wszystkich !
Układ ICL7106 ma prąd wejścia około 1 pA co pozwala pracować z wejściowym dzielnikiem napięcia o rezystancji aż 10 MOhm. Ale dzięki temu w tanim masowym dzielniku wydziela się znikoma moc i jego dryft skutkiem nagrzania nie występuje. Możliwa jest też prosta ochrona wejść szczególnie w konfiguracji omomierza.
W taki sposób bardzo drogi DVM który był kiedyś tylko dostępny w laboratorium trafił pod strzechy !
Ilość scalanych tranzystorów szybko rośnie. Potrzebna będzie wyobraźnia na nowe nieistniejące jeszcze produkty !
22.OPA i IA
W świecie nowe technologie tworzą firmy kapitalistyczne. Kapitalizm ( jest jego wiele odmian ) cechuje:
-Istotny wpływ właściciela na firmę zainteresowanego wzrostem wartości firmy
-Rynkowa alokacja kapitału inwestycyjnego i kapitału na prace D&R
-Istotny w systemowym działaniu firmy motyw zysku
Poszukuje się, projektuje i produkuje towary poszukiwane przez klientów na rynku.
Optymalizuje się stosunek Ceny do Funkcjonalności.
Stworzenie funkcji Funkcjonalności jest trudne. Faktem jest że różne parametry są częściowo wymienne przy nieprzekraczaniu wartości granicznych przy takiej samej sumarycznej funkcjonalności układu scalonego czy urządzenia.
W czasopismach naukowych i naukowo – technicznych ten temat oceny funkcjonalności, jakże ważnej dla decyzji firmy, praktycznie nie istnieje mimo iż jest ogromnie ważny.
Idea wzmacniacza operacyjnego ( Operational Amplifier = OPA ) powstała razem z wynalezieniem pary różnicowej w 1937 roku. Wzmacniacze operacyjne rozwinęły się w czasie II Wojny Światowej. Lampowe wzmacniacze operacyjne miały w zasadzie tylko wejście odwracające a sygnał był odniesiony do GND systemu. Idea Goldberga przetwarzania sygnału celem zmniejszenia dużego dryfu lampowego wzmacniacza też mogła być stosowana tylko do wzmacniacza odwracającego. Po niedługim okresie dominacji tranzystorowych modułowych różnicowych wzmacniaczy operacyjnych zawitał pierwszy układ monolityczny uA702. W konstrukcji jego doskonale widać ewolucyjny rozwój nauki i technologii. Był częściowo inspirowany konstrukcją układów lampowych.
Stałoprądowe wzmocnienie OPA wynosi 70-140 dB i zmienia się z temperaturą i napięciem zasilania. Charakterystyka jest też mało liniowa.
Małe dryfty uzyskuje się m.in. drogą symetrii różnicowej pary wejściowej i minimalizacją wpływu drugiego stopnia. Duże tłumienie sygnału wspólnego uzyskuje się drogą symetrii pary wejściowej oraz wykorzystaniem dużej oporności wyjściowej tranzystora w układzie WE (zwłaszcza z rezystorem emiterowym Re ) i czasem WB.
Przy identycznych rezystorach kolektorowych i gdy błąd wprowadza tylko para różnicowa (czyli drugi stopień w OPA jest idealny ) wejściowe napięcie niezrównoważenia 1 mV daje jego dryft 3.3 uV/C.
W katalogowych danych OPA im większe jest napięcie niezrównoważenie tym większy jest jego dryft termiczny. W precyzyjnym układzie uA725 o dryfcie 2 uV/C po trymingu napięcia niezrównoważenia do Zera spada on do 0.4-0.6 uV/C ale ulepszonym układzie OP07 przy fabrycznym trymingu w najlepszej odmianie wynosi tylko 0.2 uV/C. Niestety tryming napięcia niezrównoważenia do zera standardowych bipolarnych OPA dryft w części układów zwiększa !
Przy trymingu istnieje napięcia niezrównoważenia przy którym dryft ma najmniejszą wartość. Analiza prowadzi do wniosku że cześć tego napięcia ma taka genezę jak napięcie w źródle BandGap.
Przy identycznych tranzystorach pary różnicowej gdy błąd wprowadzają tylko rezystory kolektorowe ich 1% różnica oporności daje wejściowe niezrównoważanie 260 uV i wynikający z tego dryft temperaturowy.
W przypadku wejściowej pary różnicowej JFET wielkości te są dużo, dużo większe.
W temperaturze pokojowej przy napięciu bramki Up+0.63 V współczynnik temperaturowy prądu drenu Id jest zerowy. Na wykresie dla pary tranzystorów AD3954 ( jest to wariacja monolitycznej pary JFetów 2N3954 ) o Idss=2 mA wynosi on 180 uA. Dla prądu drenu 1 mA współczynnik temperaturowy TC napięcia Ugs wynosi 2.7 mV/C. Ale istotniejsza jest wrażliwość tego TC na prąd drenu. Jak widać przy prądach drenów tej pary około 180uA 1 % różnica w prądach ( na przykład z powodu 1% różnic rezystorów w drenach ) daje dryft napięcia niezrównoważenia 5 uV/C czyli circa 19 razy większy niż dla bipolarnej pary różnicowej. Wykres sugeruje ze korzystna dla dryftu jest praca dużymi prądami drenu ale jest dokładnie odwrotnie bo przecież chodzi o wrażliwość na względne (wyrażone w %) zmiany prądu drenu.
Konstrukcja precyzyjnych OPA BiFet jest złożona a prąd do pary Jetów pochodzi z dokładnych źródeł prądowych !
OPA zawsze pracuje ze sprzężeniem zwrotnym. Wyjątkiem jest stosowanie go jako komparatora.
W dokładnych bipolarnych OPA (uA725 i ulepszony jako OP07, LM108... ) wejściowa para różnicowa ma wyjściowe rezystory kolektorowe o kompromisowej wartości. Mankamentem tego rozwiązania jest małe dopuszczalne napięcie różnicowe.
Złożony wejściowy układ różnicowy NPN+PNP (począwszy od uA741 i LM101 ) lub Darlingtony ma uniwersalnie duże dopuszczalne napięcie różnicowe ale znacznie większy dryfy napięcia niezrównoważenie. W takiej sytuacji zastosowanie na wyjściu pary desymetryzującego lustra prądowego i asymetrycznego stopnia napięciowego nie pogarsza mocno parametrów OPA.
Monolityczny Instrumentation Amplifier ( = IA Wzmacniacz pomiarowy ) powstał znacznie później niż OPA.
IA może być zbudowany z jednego, dwóch lub trzech OPA oraz precyzyjnych rezystorów.
Układ z jednym OPA ma na wejściu ujemnym dużo mniejszą oporność dynamiczną (!) co jest podstawową wadą eliminującą go z wielu zastosowań.
Dla określonej odchyłki rezystancji od idealnej Iloraz wzmocnienia G przez CMRR jest praktycznie stały. Dla G=1 odchyłka wartości jednego rezystora o 0.1% daje CMRR 2000 tysiące czyli 66 dB. Dla wzmocnienia 1000 będzie to 126 dB.
W układzie IA z 3 OPA wyjściowy wzmacniacz jest identyczny do IA z jednym OPA i ma korzystnie wzmocnienie 1 a dwa wejściowe wzmacniacze wzmacniają sygnał różnicowy pozostawiając sygnał wspólny niezmieniony. W implementacji monolitycznej pierwsze frontowe dwa wzmacniacze są bardzo specyficzne i często mają tylko jedną wspólną parę różnicowa i w rezultacie termiczny dryft jest przy dużych G taki jak pojedynczej pary w OPA !
Z punktu widzenia CMRR wysokie (identycznie jak poprzednio ) są wymagania tylko na R2 , R2' i R3 , R3'. Jeśli funkcje CMRR identycznych frontowych wzmacniaczy są identyczne to błędy ( dominujące błędy I rzędu ) od nich się kasują. Gdy przetwornik ADC ma wejście różnicowe ( on sam ma duże tłumienie CMRR ) i toleruje występujące napięcie wspólne to nie stosujemy trzeciego wzmacniacza i do ADC podajemy sygnały Va i Vb z dwóch frontowych wzmacniaczy co potania i upraszcza rozwiązanie!
Rozwiązanie takie eksperymentalnie zastosowano przed podwójnie całkującym 13 bitowym przetwornikiem ADC ICL7109 ( część analogowa podobna jak w ICL7106 ) pracującym z komputerkiem ZX Spectrum. Jako dwóch OPA użyto precyzyjnych układów MAA725 Tesla równoważnych uA725. Z przypadkową LC z 10 metrowym kablem system trzyma Zero całymi dniami. Także po położeniu ciężaru pomiar jest stabilny.
Układ IA z dwoma wzmacniaczami OPA jest statycznie najdokładniejszy i ma najmniejsze szumy ale CMRR szybciej spada w funkcji częstotliwości co może być czasem istotne.
Pierwszym udanym układem monolitycznym IA był układ AD520 z 1973 roku. Poniżej jest jego schemat blokowy.
N.B.Idea kompozycji i pracy IA - AD520 jest łatwa do zastosowania w układzie IA w technologii CMOS.
IA jest na tle OPA bardzo drogi. Monolityczne IA produkuje kilka firm z USA i jeden koncern z Japonii. W krajach RWPG nie są produkowane. Objęte są kontrolą eksportu czyli embargiem.
Wysokie tłumienie sygnału wspólnego CMRR w IA uzyskuje się:
-Stosując w układzie z 2 lub 3 OPA precyzyjne rezystory i OPA o dużym CMRR.
-Wykorzystując w monolitycznym IA jak AD520 dużą oporność wyjściową tranzystora w układzie WE ( zwłaszcza z rezystorami Re w emiterach ujemnego sprzężenia zwrotnego ) i czasem WB oraz dokładne rezystory.
Współczynnik termiczny oporności metalizowanych rezystorów o tolerancji 0.1% wynosi 10-25 ppm/K. Ale współczynnik różnicowy pary (lub większej ich ilości sprzężonych cieplnie ) takich cieńkowarstwowych rezystorów scalonych wynosi poniżej 1 ppm/K co wykorzystuje się m.in. w drabinach R-2R do przetworników DAC nawet 16 bitowych.
Współczynnik termiczny rezystorów o tolerancji 0.01% wynosi poniżej 5 ppm/K a rezystora 1% 50-100 ppm / K. Precyzyjne rezystory są drogie.
Najlepsze własności mają rezystory o średnich wartościach rezystancji. Gorsze parametry mają zarówno rezystory o małych opornościach ja i dużych a szczególnie bardzo dużych.
Pierwszym mostkiem stałoprądowym był układ Wheatstona. Również w XIX wieku powstały także mostki zmiennoprądowe. Zrównoważenie mostka stałoprądowego detekowano czułym galwanometrem świetlnym.
Jeśli mostek ma zasilacz który nie doskonałej izolacji w stosunku do GND układu sygnałowego (lub z tym GND jest połączony) odbierającego sygnał wyjściowy z mostka powstaje problem tłumienia napięcia wspólnego Uc – common. Uc na tle napięcia użytecznego na wyjściu mostka może być bardzo duże.
Zaleta mostka jest mały względny dryft identycznych elementów czyli wykorzystuje on tą samą idee (!) co para różnicowa tranzystorów lub para ( lub większa ilość ) rezystorów.
Na odniesiony do wejścia bilans błędów Zera równoważnego napięcia składa się:
-Wejściowe napięcie niezrównoważanie zsumowane z dryftem termicznym
-Wejściowy prąd niezrównoważania wejść pomnożony przez oporności na wejściu zsumowany z dryftem termicznym oraz iloraz różnic oporności na wejściach pomnożony przez prąd polaryzacji zależny od temperatury
-Zmiany napięcie wspólnego podzielone przez CMRR. Może się ono zmieniać pod wpływem temperatury.
-Napięcie dryftu długoczasowego i prąd dryftu ( to w zasadzie są szumy 1/f na bardzo małych częstotliwościach ) pomnożony przez oporność na wejściu
W typowych zastosowaniach IA z uwagi na małe rezystancje na wejściach błędy powodowane prądami są bez znaczenia.
Bilans błędu minimalizujemy kierując się względami ekonomi czyli redukujemy to co da się tanio zredukować.
W automatyce przemysłowej świata najpopularniejsze są sensory temperatury i ciśnienia / przepływu.
W sensorach ciśnienia stosowane są mostki tensometryczne ale są też inne metody pomiaru.
Natomiast Load Cell służące do pomiaru wagi są na 5 miejscu popularności sensorów ale w Polsce spotykane są niestety rzadko. W automatyzacji są bardzo cenne i użyteczne !
Od 1960 roku obowiązuje w świecie międzynarodowy system miar International System of Units (SI) w którym zdefiniowano siedem podstawowych jednostek: czas, długość, masa, prąd elektryczny, temperatura termodynamiczna, ilość substancji i strumień światła. Wszystkie pozostałe jednostki są pochodnymi tych 7 bazowych.
W odróżnieniu od wcześniejszych systemów nie ma w SI żadnych przedmiotów - jednostek czyli etalonów.
I tak sekunda to okres 9192631771 przejść subtelnych w atomie Cezu 133.
Metr to dystans pokonywany przez światło w próżni w ciągu 1/299792458 sekundy...
W piramidzie systemu światowej metrologii pod SI są narodowe instytuty metrologi a pod nimi laboratoria kalibracyjne ( powinny mieć akredytacje jako dowód rzetelnej pracy ) a pod nimi laboratoria przemysłowe i testowe.
Dla standaryzacji i unikania błędów i nieporozumień wydawane są przez komitety normalizacyjne Słowniki pojęć i objaśnienia.
Znanych jest kilkadziesiąt grup przyrządów pomiarowych i ponad 200 rodzajów przyrządów.
Pierwszym znanym etalonem był wzór długości w Egipcie 29 wieków p.n.e. Próby stosowania jednostek podjęto 3-4 wieki p.n.e.
Wygodny w użyciu system metryczny narodził się we Francji w Czasie Rewolucji Francuskiej. W świecie przyjmowano go do 1875 roku. W Sevre pod Paryżem przechowywano etalony jednostek miar.
Stworzona w 1955 roku międzyrządowa International Organization of Legal Metrology promuje w świecie zunifikowane wymagania i procedury techniczne oraz formaty raportów testów dla wzmocnienia zaufania do pomiarów w handlu. OIML publikuje liczne raporty.
Polskie Normy dla klas przyrządów elektrycznych podają maksymalne błędy (odniesione do FS- Full Scale ):
klasy 0,1 i 0,2 - Przyrządy wzorcowe
klasa 0,5 - Przyrządy laboratoryjne
klasy 1 i 1,5 - Przyrządy do pomiarów przemysłowych
klasy 2,5 i 5 - Przyrządy orientacyjne
Powinny być jednak osobno specyfikowane Błędy Zera i Skali
Na całkowity błąd składa się błąd Zera i Błąd Skali i ewentualnie błąd skwantyzowania. Za błędy mogą odpowiadać różne elementy i systemy a czasem odpowiadają one za oba w różnym stopniu. Stąd też alokacja części całkowitego błędu na Błąd Zera i części na Błąd Skali powinna wynikać z optymalizacji ekonomicznej.
-W przypadku układu miernika CMOS ICL 7106 jako woltomierza / amperomierza prądu stałego DC za Zero odpowiada algorytm autozerowania a błąd skali wynika z błędów ADC z napięciem odniesienia w układzie ICL oraz niedokładności rezystorów dzielnika napięcia i rezystorów do pomiar prądu.
-W przypadku mostka z RTD PT100 niedokładność części rezystorów i niezrównoważenie OPA dają błąd Zera a części błąd Zera i Skali
-W przypadku IA bazującego na OPA niedokładne rezystory dają błąd Zera równy napięciu wspólnemu podzielonemu przez CMRR i jednocześnie błąd skali czyli wzmocnienia
Rozdzielczość najlepszych woltomierzy DVM DC w świecie sięga absurdalnych 8.5 cyfr ( firmy Solartron) ale dokładność jest oczywiście dużo mniejsza. Szczególnie mała jest ona na zakresach zmiennoprądowych.
Polskie licencyjne mierniki cyfrowe z archaicznymi wyświetlaczami NIXIE już tylko tylko śmieszą.
Normy różnych krajów i IEC podają 3 lub 4 klasy dokładności dla sensora PT100 w konwencji błąd Zera (Zero przy temperaturze pokojowej) i błąd skali w %/K.
Normy różnych krajów i IEC podają 2 klasy dokładności ( mogą to być wykresy ) dla różnych termopar w konwencji błąd Zera (Zero przy temperaturze pokojowej) i błąd skali w %/K.
23.Strain Gauge i Load Cell.
Rezystory tensometryczne lub tensometry czyli Strain Gauge (=SG) mogą być wprost swoim podłożem przyklejone do badanej mechanicznej konstrukcji. Regułą jest łączenie ich w mostek pomiarowy. Najczęściej jednak są one fabrycznie przyklejone do stabilnego, odkształcanego mierzoną siłą, odpowiedniego przedmiotu ze stali narzędziowej czy innego metalu i połączone w mostek. Trymowany (szlifowanie) jest zarówno sam ten przedmiot jak i rezystory ( delikatne ścieranie lub laserowo ) mostka. Jest to Load Cell (=LC). Nazwa ta nie ma niestety polskiego odpowiednika.
Ogromna większość mostków tensometrycznych ma rezystancje 350 Ohm. Mniej popularne są oporności 120 i 1000 Ohm. Strain Gauge mają bardzo mały współczynnik temperaturowy oporności i zalecane jest (w przypadku oporności 350 Ohm ) zasilanie 10 V (symetryczne +-5V) przy którym w mostku wydziela się niebanalna moc 286 mW. Gniazdo na Load Cell i wtyk dla kabla połączeniowego są zestandaryzowane ale gniazda i wtyki nie zawsze są stosowane i kabel może być przylutowany na stałe.
Powierzchnia rezystorów SG /LC jest chroniona przed czynnikami środowiskowymi i są one stabilne długoczasowo. Dzienny dryft średnio intensywnie używanego SG-LC wynosi 5-8 ppm.
Wyjściowe Sygnały nazywają się S+ i S- a zasilanie E+ i E- lub Ex+ i Ex- od Excitation. Czasem stosowane połączenia Kelwina do zasilania nazywają się Sen+ i Sen- od Sensing.
Zależnie od zastosowania kabel do Load Cell może być krótki, średni lub długi i o różnym przekroju.
Niech każdy przewód zasilający LC Rp+ i Rp- ma rezystancje Rp. Miedz (są też miedziane sensory RTD ) kabla ma duży dodatni współczynnik temperaturowy rezystancji a rezystory mostka mają znikomy współczynnik. W rezultacie bez środków zaradczych przy stabilnym napięciu zasilania wejścia kabla podwyższenie temperatury kabla powoduje pewien spadek napięcia na samym mostku.
Weźmy dwa skrajne przypadki.
-Niech kabel z przewodami AWG24 o średnicy miedzi 0.5 mm ma długość 50 m czyli długość obu przewodów zasilających wynosi razem 100 m a ich oporność w temperaturze 20C wynosi 8.75 Ohm. Miedź ma współczynnik cieplny oporności +0.386%/K. Z przyrostem temperatury 30 C do 50 C oporność przewodów wyniesie 9.76 Ohma. Zatem z przyrostem temperatury 30 C napięcie spadnie (350 + 8.75) / (350 + 9.76) = 0.997 napięcia w temperaturze 20 C czyli czułość spadła o 0.3%.
-Niech kabel z przewodami AWG18 o średnicy miedzi 1 mm ma długość 5 m czyli długość obu przewodów wynosi 10 m a ich oporność w temperaturze 20C wynosi 0.219 Ohm.....
W tym drugim wypadku spadek czułości spowodowany przyrostem temperatury przewodu o 30 C wydaje się być dopuszczalny.
Czułość SG/LC wynosi tylko 2-4 mV/V napięcia zasilania na pełną, 100% zakresu, siłę.
Wzmacniaczom operacyjnym i Pomiarowym wejściowy dryft napięciowy podaje się w uV/K. Dryft SG/LC podaje się inaczej. Przykładowy dobrej klasy LC o czułości 2mV/V-FS (FS = Full Scale) ma dryft: 0.002% FS per F co w systemie parametrów OPA IA przy zasilaniu 10 V oznacza dryft 0.4 uV/F czyli 0.72 uV/K.
Wyjaśnia się zatem dlaczego dedykowany do Strain Gauge / Load Cell Wzmacniacz Pomiarowy IA ma dryft tylko 0.5 uV/C i jest tak drogi. Ma on tłumienie sygnału wspólnego aż 140 dB ale przy wzmocnieniu >1000.
-Na pierwszym rysunku do kabla zasilającego LC podano napięcie zasilania Vr ( r od reference czyli odniesienia ) i GND. Napięcie odniesienia Vr podano też do przetwornika ADC i system jest ratiometryczny. Przy idealnym mostku napięcie wspólne sygnału wyjściowego wynosi 0.5 Vr i nie zmienia się z temperaturową zmianą rezystancji przewodów Rp+ i Rp-. Zatem wielkie tłumienie sygnału wspólnego CMRR nie jest tu potrzebne. Dla zachowania dokładności kabel do LC musi być krótki lub bardzo krótki i mieć duży przekrój. Użycie do ADC napięcia odniesienia z przewodu Sen+ kompensuje tylko połowę błędu i nie ma sensu.
-W drugim układzie napięcie z połączeń Kelvina Sen+ i Sen- podano do różnicowego wzmacniacza błędu OPA1 do którego podano też napięcie odniesienia Vr. Stabilizowane jest zatem napięcie na samym mostku i wpływ rezystancji Rp+ i Rp- przewodów zasilających jest eliminowany. Rezystory samego wzmacniacza różnicowego z OPA1 nie powinny być małe na tle rezystancji przewodów Rp i Rp-. Przewód Rp- dołączony jest GND systemu. Napięcie wspólne sygnałów za kablem jest sumą połowy napięcia zasilania samego mostka i spadku na rezystancji Rp- przewodu.
Zatem napięcie wspólne zmienia się z temperaturą przewodu i potrzebne jest duże tłumienie sygnału wspólnego CMRR.
Napięcie zasilające na mostku jest stałe w funkcji temperatury a połowa tego napięcia wchodzi do napięcia wspólnego. Pod wpływem temperatury rośnie rezystancja przewodu Rp- i spadek napięcia na niej co wchodzi w sumę napięcia CMRR. Dla przykładowego kabla z przewodami AWG24 o średnicy miedzi 0.5 mm i długość 50 m przy zmianie temperatury o 30 K zmiana oporności wyniosła 0.5 Ohma co przy prądzie zasilania 28.6 mA dało dryft 14.3 mV czyli podobny maksymalnego sygnału z mostka !
Niech ten dryft podzielony przez CMRR IA będzie taki jak dryft termiczny napięcia niezrównoważenia 1 uV/K dla zmiany temperatury 30 K. CMRR ma wynieść tylko 477 razy czyli około 54 dB ! Jeśli CMRR będzie większy to stanie się w bilansie mało istotny.
Nieoczekiwanie wymagane CMRR jest szokująco niskie. Z krótkim grubym kablem sytuacja jest jeszcze bardziej komfortowa !
-W trzecim układzie mostek jest zasilany symetrycznymi napięciami. Na przykład +-5V. Dodatnie zasilanie to Vr. Napięcie z połączeń Kelwina jest sumowane identycznymi rezystorami i podane do wejścia ujemnego wzmacniacza OPA1 wytwarzającego symetryczne ujemne napięcie. Do przetwornika ADC podane jest napięcie z przewodu Sen+. Mimo iż napięcie samego mostka odrobinę zmienia się z temperaturą to czułość całego systemu jest stała i jest on ratiometryczny. Alternatywnie można dodatkowo dodatnie napięcie stabilizować na samym mostku dodatkowym wzmacniaczem z użyciem połączenia Kelwina. Wyjściowy sygnał wspólny jest bliski zeru i tłumienie sygnału wspólnego nie musi być wielkie.
-W czwartym układzie mostek jest zasilany prawie symetrycznymi ( gdy mostek jest symetryczny i nie pobudzony napięcia są idealnie symetryczne ) napięciami. Od góry zasilany jest napięciem Vr. Do przetwornika ADC podane jest napięcie z przewodu Sen+ odrobinę mniejsze od Vr o spadek na przewodzie Rp+. Mimo iż napięcie samego mostka odrobinę zmienia się z temperaturą to czułość całego systemu jest stała i jest on ratiometryczny. Alternatywnie można dodatkowo dodatnie napięcie E+ stabilizować na samym mostku dodatkowym wzmacniaczem z użyciem połączenia Kelwina.
Do ujemnego wejścia wzmacniacza operacyjnego OPA1 podano jedno wyjście mostka i wzmacniacz wytwarza ujemne napięcie zasilania E- takie że sygnał z tego wyjścia mostka jest zerowy. Sygnał z drugiego wyjścia jest wzmocniony przez OPA2 a nie przez IA. OPA1 i OPA2 są identyczne. OPA1 winien pracować z kompensacją dwubiegunową pętli dla najlepszej likwidacji zakłóceń AC. Napięcia wspólnego tu w ogóle nie ma.
-W piątym układzie mostek jest zasilany prądem proporcjonalnym do Ur. Napięcie wspólne zmienia się wraz z napięciem na przewodzie Rp- i wymagany jest wysoki CMRR.
-W szóstym układzie mostek od góry zasilany jest napięciem Ur a od dołu napięciem -Ur wytworzonym odwracającym wzmacniaczem operacyjnym. Do przetwornika ADC podane jest napięcie z przewodu Sen+ Alternatywnie można dodatkowo dodatnie napięcie E+ stabilizować na samym mostku tak ja omawiano wcześniej. Napięcie wspólne jest bliskie zeru i wystarczy dla IA niewielki CMRR
-W siódmym układzie mostek jest zasilany asymetrycznie Vr / GND a wzmacniacz różnicowy z napięć na połączeniach Kelwina rekonstruuje napięcie na samym mostku i ono jest podane do ADC.
Napięcie wspólne wynosi 0.5 Vr i się nie zmienia.
-W ósmym układzie mostek jest z Vr i GND zasilany rezystorami. Ewentualnie (gdy potrzeba ) wzmocniony spadek napięcia na dolnym rezystorze proporcjonalny do prądu zasilania mostka podano do ADC. Napięcie wspólne wynosi 0.5 Vr i się nie zmienia.
-W dziewiątym układzie zasilacz mostka używający połączeń Kelwina (gdy połączenia są długie ) jest izolowany a jedno wyjście mostka połączone jest z GND systemu z ADC. Nie ma sygnału wspólnego. Uzwojenie transformatora izolowanego zasilacza musi być starannie podwójnie ekranowane aby nie przedostawały się do wyjścia mostka zakłócenia. Mimo tego resztki zakłóceń z transformatora usuwa filtr dolnoprzepustowy i rozwiązanie to nie nadaje się do szybkich sygnałów. System nie jest ratiometryczny co jest wadą !
-W dziesiątym układzie zasilacz systemu ADC jest izolowany a jedno wyjście mostka połączone jest z GND tego pływającego, ekranowanego systemu z izolacja transoptorami lub transformatorkami impulsowymi od części cyfrowej.
Uzwojenie transformatora izolowanego zasilacza musi być podwójnie ekranowane aby nie powstawały zakłócenia. Zasilacz mostka używa połączeń Kelwina. System nie jest ratiometryczny co jest wadą !
24.Inne Sensory mostkowe
National Semiconductor kompletne komercyjne grubowarstwowe układy do pomiaru ciśnienia oferuje od 1977 roku a sam katalog o sensorach jest z 1977 roku. Sam mostkowy sensor jest monolityczny. Układ grubowarstwowy zawiera zasilacz, wzmacniacz pomiarowy i układ kompensacji temperaturowej.
Każdy różnicowy sensor ciśnienia można też zastosować w systemie z przewężką do pomiaru przepływu.
Układy NS można stosować w samochodach, automatyce przemysłowej, w diagnostyce maszyn, hydraulice, pneumatyce, w systemach pomp, systemach HVAC, chłodnictwo, oceanografii i w maszynach spawalniczych ale tez w akcelerometrach, altimetrach ( przykład w transponderze ) i Load Cell oraz w zastosowaniach akustycznych i do pomiaru temperatur i do monitoringu kabli HV i NN z izolacją gazową. W urządzeniach medycznych ( pomiar ciśnienia krwi, tympanometr, tonometr, puls, monitoring porodu, wydolność płuc ) te sensory można stosować tam gdzie nie ma krytycznej funkcji podtrzymania życia.
Wspomniany „Pressure Transducer Handbook” jeśli chodzi o aplikacje sensorów jest wart polecenia. Kompletne sensory mają odporne obudowy adekwatne do zastosowań ale cena była niestety wysoka.
Za pewnik można przyjąć że taka kompletna funkcjonalność zostanie w końcu scalona monolitycznie po niskiej cenie co wywoła eksplozje wielkości produkcji sensorów i ich zastsowań.
Ci którzy te zastosowania stworzą sporo zarobią.
Philips w 6 pinowej obudowie DIP z króćcem na grzbiecie oferuje niedrogi monolityczny sensor ciśnienia z piezorezystancyjnym mostkiem tensometrycznym
Przy zasilaniu mostka sensora KP101A o zakresie pomiaru 0-1.2 bar napięciem 5V jego nominalna czułość wynosi 100 mV / bar ze współczynnikiem temperaturowym aż -0.22% / C.
Sygnał wspólny na wyjściu sensora wynosi 0.5 napięcia zasilania i wysokie tłumienie CMRR układu IA jest zbędne.
Zatem temperaturowa kompensacje czułości tego sensora trzeba przeprowadzić programem a system musi mieć też sensor temperatury dostarczający potrzebnej informacji.
Offset napięcia z mostka przy zerowym ciśnieniu wynosi maksymalnie aż +-25 mV i ma też temperaturowy dryft aż 0.04%/K. Wszystko to sprawia że efektywnie wykorzystana będzie tylko część zakresu przetwornika ADC ( musi akceptować największy sygnał ) co jest nieekonomiczne. Przetworniki ADC zintegrowane w mikrokontrolerach na razie mają bardzo ograniczoną rozdzielczość a dokładniejsze zewnętrzne ADC są horrendalnie drogie (na tle mikrokontrolera ) a ich użycie dodatkowo bardzo zwiększa ilość elementów systemu.
Mostek może też być zasilany poprzez wbudowany tranzystor z rezystorami napięciem rosnącym z temperaturą także że czułość sensora jest prawie stała w funkcji temperatury. Napięcie zasilania mostka rośnie z temperatura a napięcie wspólne to połowa tego napięcia. Zatem potrzebne jest znaczne tłumienie sygnału wspólnego CMRR. Zauważmy że intencjonalne odpowiednio małe tłumienie CMRR IA ( może mieć znak dodatki lub ujemny ) z uwagi na temperaturową zależność napięcia wspólnego może kompensować dryft temperaturowy offsetu Mostka ! Aby dobrze wykorzystać zakres przetwarzania ADC offset napięcia na wyjściu IA trzeba zmniejszyć.
Offset mostka i jego dryft offsetu można by więc zmniejszyć stosując trymowane rezystory co rzecz jasna podniesie cenę sensora. Powstaje ważne pytanie czy offset mostka jest skorelowany z jego dryftem temperaturowym czy też w każdym sensorze jest trochę inaczej ?
Wypróbowany IA na dwóch tanich wzmacniaczach operacyjnych do KP101A spisuje się doskonale.
Monolityczne mostki piezorezystancyjne są też produkowane do Load Cell czyli do wag. Tak samo jak w sensorze ciśnienia mają stosunkowo dużą czułość.
Natomiast z mostkiem piezorezystancyjnym w Load Cell w wadze lekarskiej zakres 199.9 kg jest doskonały.
Trochę lepsze parametry niż KP101 ma mostkowy cieńkowarstwowy sensor ciśnienia KPZ20G na zakres -1..2 bar. Także Philipsa.
Ma on znacznie mniejszą czułość bo 10.5 mV /bar przy napięciu zasilanie 7.5 V, która maleje aż ze współczynnikiem -0.15% / C. Nie ma razem w obudowie, pomocniczego sensora temperatury. Tak samo jak z sensorem KP101A można zastosować kompensacje programową z dodatkowym sensorem lub zasilać sensor napięciem rosnącym z temperaturą sensora. Oporność mostka rośnie z temperaturą i przy zasilaniu prądem temperaturowy współczynnik czułości jest znacznie mniejszy niż przy zasilaniu napięciowym.
25.RTD
Najpopularniejszym rezystancyjnym sensorem temperatury są platynowe sensory PT100 w różnych obudowach. Inne rezystancje sensora platynowego są rzadziej spotykane. Rzadziej spotykane są inne metale jak miedź.
Zaletą PT100 jest wysoka dokładność ( normy ustanowiły klasy dokładności ), stabilność długoczasowa, niska awaryjność i dość szeroki zakres mierzonych temperatur. Ciągły prąd pomiarowy płynący przez PT100 wynosi od 200 uA do 5 mA. Przy normatywnej czułości 0.385 %/C prąd 2.6 mA daje czułość 1 mV/C. Prąd impulsowy bywa większy. Sprzętowa linearyzacja kwadratowa jest prosta w realizacji i zupełnie wystarczająca.
Rezystancja przewodów kabla połączeniowego w układzie dwuprzewodowym wnosi błędy. Są one mocno redukowane układem trójprzewodowym i czteroprzewodowym. Układ interface do jednego sensora zawsze pracuje z OPA. Natomiast gdy sensorów PT100 jest więcej (8-16-32) są one przyłączane do IA i ewentualnie jednego źródła prądu pomiarowego ( bez tego konieczne są w każdym kanale PT100 precyzyjne rezystory mostka ) multiplexerami CMOS. Praca w konfiguracji dwu i czteroprzewodowej jest oczywista ale w przypadku trójprzewodowym trywialne rozwiązanie kasuje tylko połowę błędu spowodowanego rezystancją przewodów. Dla całkowitego skasowania błędu potrzebne jest drugie identyczne źródło prądowe.
Ponieważ klucze CMOS mają sporą oporność konieczne jest niezależne multiplexowanie wejść IA i wyjść źródeł prądowych jak w idei Kelvina. Multiplexery CMOS są jednak coraz tańsze. Zaletą jednego / dwóch źródeł prądowych jest identyczny pomiar w kanałach z identyczną opornością sensora PT100 podczas gdy w rozwiązania z oporowymi mostkami dla każdego sensora identycznym temperaturom odpowiadają trochę inne mierzone temperatury ( bywają różnice i 3 C !) do podważa zaufanie i jest irytujące. Dodatkowo impulsowy prąd pomiaru może być duży ( przy tej samej mocy traconej w PT100 ) co polepsza odporność na zbierane okablowaniem zakłócenia.
W przemyśle w połączeniach z PT100 dominuje układ trójprzewodowy ale z reguły ekranowany kabel sygnałowy ma cztery przewody !
26. Termopara
Termopary wykonywane są w trzech odmianach Isolated / Grounded / Exposed.
-W termoparze Isolated jest ona od obudowy izolowana ceramiką MgO lub Al2O3. Termopara jest stabilna i dokładna ale dość powolna. Jedno z wyprowadzeń symetrycznego kabla sygnału może być przy nieodwracającym wzmacniaczu OPA uziemione. Przez termoparę może płynąć prąd paru uA do monitorowania jej ciągłości. Kierunek prądu winien być taki aby fałszywy pomiar po awarii termopary był bezpieczny dla systemu i wywołał alarm.
-W termoparze Grounded jest ona połączona cieplnie i elektrycznie z metalową obudową sensora a ta z konstrukcją urządzenia. Termopara jest trwała, stabilna i dość szybka. Sygnał różnicowy musi być wzmocniony przez IA a symetryczne napięcie zasilania IA i zakres sygnału wspólnego musi być większy od występującego napięcia wspólnego między urządzeniem z termoparą a GND IA. Gdy masy mogą być incydentalnie niepołączone sygnały dla ograniczenia napięcia wspólnego przy IA powinny być dołączone rezystorami 0.1-1 MOhm do GND IA. Wejścia IA muszą być zabezpieczone !
-Termopara Exposed nie jest obudowana. Z reguły jest najtańsza i najszybsza. Jest często umieszczona w gorącym gazie procesowym który nie powinien być przewodzący i wilgotny. Jedno z wyprowadzeń kabla sygnału może być przy nieodwracającym wzmacniaczu OPA uziemione ale jednak wskazane jest użycie wzmacniacza IA.
Wejścia IA muszą być zabezpieczone !
Zakłóceniowe napięcie wspólne jest trudne do określenia ale są one skorelowane z potrzebną długością kabli. Kable są anteną odbiorczą i zakłócenia radiowe aby nie były detekowane są zwierane małymi kondensatorami. Poniekąd napięcie wspólne jest podobne do spadku napięcia na sieciowym przewodzie ochronnych PE przez który płynie prąd upływu głównie kondensatorów Y i pojemności transformatorów oraz silników. Napięcie te są duże w chwili wysokoprądowego zwarcia lub uderzenia pioruna i środki ochronne muszą takie zakłócenia zneutralizować. Zakłócenia powodują też silne magnetyczne pola rozproszone dużych transformatorów i silników.
Napięcia z termopar są podobne wielkością jak ze SG-LC.
Termopara K jest liniowa w szerokim zakresie temperatur i ma dużą czułość 41 uV/K.
Nieliniowe termopary na wysokie Temperatury wymagają linearyzacji. Programowa odcinkowa linearyzacja jest dość prosta.
Starawy OPA typu uA725 (=Tesla MAA725) jest wystarczający do współpracy z termoparami ale celowa jest zasilanie go zmniejszonymi napięciami aby ograniczyć samonagrzewanie i dryft.
27.Medical. EKG i inne.
Prosty dwuelektrodowy ( plus „uziemienie ” RL, Right Leg ) system EKG w którym można użyć IA ( przykłady prezentowane w materiałach AD i BB ) stosowany jest tylko w monitorze oznak życia pacjenta ( Vital Sign Monitor ) i w synchronizowanym Defibrylatorze z rejestratorem. W tym drugim wypadku wejścia IA muszą być dobrze chronione przed impulsem z defibrylatora.
W nowoczesnym diagnostycznym 12 odprowadzeniowym EKG nie stosuje się IA ale stosuje się idee tłumienia złożonych sygnałów wspólnych dokładnymi stosunkami rezystorów w układzie w wieloma OPA.
28.Rezystor do pomiaru prądu
Z uwagi na straty mocy spadek napięcia na rezystorze do pomiaru prądu wynosi typowo 20-60 mV ale rezystor może być umieszczony na poziomie sporego napięcia wspólnego a nie na poziomie GND. Gdy wejściem są emitery pary różnicowej napięcie wspólne IA może przekroczyć napięcie zasilania co jest korzystne.
29.Przykłady optymalizacji.
Napięcie Uceo tranzystorów w tradycyjnych scalonych układach analogowych przeznaczonych do zasilania napięciem do +-15V ( całkowite napięcie zasilania wynosi zatem 30 V ) wynosi circa 50V a ich Ft dla typu NPN jest mniejsza od 200-500 MHz. W układach na napięcie zasilania do +-22V Uceo tranzystorów wynosi około 70V.
Awaryjność tranzystorów i układów scalonych wzrasta wraz z ich temperaturą ( dopiero powyżej ca 30 C ) i z napięciem Uce na tranzystorach ( także D i Q pasożytniczych ) jeśli jest wyższe od 50 % Uceo. Początkowo negatywny wpływ napięcia jest bardzo słaby ale wraz ze zbliżaniem się do Uceo szybko wzrasta.
Diody, tyrystory i tranzystory wysokonapięciowe mogą maksymalne napięcie osiągać w pracy tylko chwilowo. Prawdopodobnie chodzi tu o wpływ promieniowania kosmicznego.
Zatem w minimalizowanej sumarycznie wielokryterialnej funkcji celu trzeba z wagą uwzględniać wydzielaną moc czyli temperatura i całkowite napięcie zasilania jako trwałość jako że ma to wpływ na niezawodność urządzenia i jego starzenie się
Wyznaczenie różnych wag dla czynników jest trudne a czasem bardzo trudne.
Dla Najgorszego Przypadku sumujemy wartość bezwzględną złych wpływów. Dla prawdopodobnego przypadku bierzemy pierwiastek z sumy kwadratów wpływów. Możemy też jeśli czynniki są dwa, trzy wziąć tylko największy dla aktualnej kombinacji zmiennych w punkcie.
A.Optymalne napięcie zasilania dla integratora / układu różniczkującego ( analogowy regulator PID ) dla podwójnego typowego OPA JFET z rezystorem/ani Rs=22 MOhm ( największa wartość łatwo dostępna handlowo i tania ) na wejściu/wejściach ( wejście dodatnie OPA uziemione lub z identycznym rezystorem). Minimalizacja równoważnego błędu napięciowego odniesionego do wejścia do zakresu napięcia wyjściowego. Sporządzić wykres jakości w funkcji napięcia zasilania. Metoda Najgorszego przypadku.
Temperatura w urządzeniu wynosi Tamb=30 C.
1.Napięcie niezrównoważenie OPA wynosi Vos=3 mV a jego dryft 10 uV/K. Po ewentualnym (opcja) trymingu spada 10 razy.
2.Katalogowy prąd polaryzacji wejścia OPA JFET w temperaturze pokojowej z zasilaniem +-15V ( czyli łącznie 30 V) przy zerowym napięciu wspólnym wynosi 30 pA. Podwaja się on co 10 C. W tranzystorach JFet występuje prąd bramki jonizacji zderzeniowej rosnący z napięciem Uds i prądem Id. Może on przyjmować katastrofalne wartości setki tysięcy razy większy niż w danej temperaturze najmniejszy prąd bramki JFeta. Napięcie Uds tranzystorów pary wejściowej zależy od napięcia zasilania i napięcia wspólnego na wejściach. Temat ten rzadko jest w katalogach podejmowany szczegółowo.
Szczęśliwie w katalogu National Semiconductor podano prąd polaryzacji wejść OPA JFET LF155,6,7 w funkcji normalnego ( gdy wzmacniacz ma jeszcze dobre parametry ) napięcia zasilania. Tak jak można to niezbyt dokładanie odczytać prąd jest proporcjonalny do napięcia zasilania i niezależnie podwaja się co 10 C. Pokazano też wpływ napięcia wspólnego. Tu wynosi ono Zero ale gdy jest większe od Zera ( dlatego że w OPA FET używane są tranzystory P ) trzeba je uwzględniać. Przyrost tego prądu od napięcia wspólnego jest bardzo różny i wynosi zależnie od typu od 40% do 30 razy a więc 3000 %. Zależy on też mocno od napięcia zasilania.
Prąd offsetu ( rezystory ma obu wejściach dla symetrii ) we wzmacniaczach operacyjnych to 1/3 do 1/10. Można przyjąć 1/5.
3.W starszych wzmacniaczach operacyjnych prąd zasilania mocno rósł z napięciem zasilania. W najgorszym wypadku liniowo ale w nowszych układach liniowych rośnie niewiele a dodatkowo spada ze wzrostem temperatury. Często jest tak ze skutkiem podgrzania wyższym napięciem i pobieraną mocą oba te efekty się znoszą i pobierany prąd jest po nagrzaniu stały w funkcji napięcia zasilania!
Gdy tak nie jest trzeba oba efekty uwzględnić. Rezystancja termiczna obudowy DIL8 wynosi 115C/W a pobierany prąd 3.6 mA.
-Wyjście jest nieobciążone i maksymalne napięcia wyjściowe są o 1 V mniejsze ( wartość bezwględna ) od napięć zasilania czyli zakres wyjścia wynosi Vs-2.
4.Dotychczas jakość Q, związana z funkcjonalnością i ceną urządzenia, to iloraz napięć dynamiki wyjścia do błędu wejścia. Trwałość elementów półprzewodnikowych spada o połowę co 7-10 C przyrostu temperatury ale dopiero powyżej 30 C. Dodatkowo szybko spada przy wysokich napięciach. Zatem szkodliwość napięcia zasilania rośnie podobnie jak wzrost prądu polaryzacji ! Im bardziej zawodne jest urządzenie tym większe będą koszty napraw. Czyli od dotychczasowego Q trzeba ( na chłopski rozum ) odjąć odwrotność żywotności IC pomnożoną przez W-agę. Łączymy ze sobą dwa światy i ustalanie W wymaga dociekań i znajomości wielu realiów. W i tak byłaby słuszna tylko lokalnie (logika jak linearyzacji ) a nie globalnie dla parametrów.
Na wykresie pokazano ( tylko jeden rezystor wejściowy ) temperaturę chipa, prąd polaryzacji wejścia i „jakość” Q ( skala dogodna dla prezentacji na wykresie ) w funkcji całkowitego napięcia zasilania Us=10-45 V.
Wariantów (opcje) jest cała masa. Tak jak w realiach życia.
-Przy tych parametrach i opcjach optymalne napięcie zasilania wynosi circa 36V ale jakość Q przy typowym napięciu 30V jest niewiele mniejsza.
-Prąd bramek OPA rośnie bardzo szybko na skutek wszystkich wymienionych efektów
-Im większy rezystor/y na wejściu tym mniejsze optymalne napięcie zasilania. Wykres trójwymiarowy może mieć przykładowo argumenty Us i Rs. Wadą wykresu trójwymiarowego jest jego słaba dokładność odczytu.
-Im wyższa temperatura otoczenia Tamb tym mniejsze optymalne zasilanie
-Im większa waga W trwałości tym mniejsze optymalne napięcie zasilania
B.Optymalne napięcie zasilania OPA i wartość rezystorów ( zwykle przyjmuje się przedział 10-100 k) (zadanie jest dwuwymiarowe) dla invertera z trzema rezystorami o wzmocnieniu -1. Rozkład gęstości napięć w czasie pracy niech będzie liniowy aż do napięć maksymalnych
Z wagami wzięty jest średni dryft temperaturowy Zera i Skali oraz Długoterminowe (5 lat) płynięcie skali i Szumy.
Im większa konduktancja rezystorów tym:
-Większe średnie obciążenie cieplne OPA i dryft jego zera
-Mniejsze wzmocnienie OPA i jego błąd skali
-Mniejsze maksymalne napięcie wyjściowe OPA
-Większe obciążenie cieplne rezystorów i zmiany ich chwilowej rezystancji czyli zmiana skali
-Większy dryft długoczasowy rezystancji czyli skali
-Mniejszy dryft od prądu offsetu
-Efektywnie mniejsze szumy prądowe
Im większe napięcie zasilania tym:
-Większe cieplne obciążenie statyczne i dynamiczne OPA czyli dryfty i obciążenie dynamiczne i starzenie rezystorów
-Większe napięcie wyjściowe i trochę większe wzmocnienie OPA
Użyto w przykładzie rezystorów 0.1%, 0.25W o TC 25 ppm/c, max i oporności cieplnej 240K/W. Starzenie długoczasowe jest eksponencjalne ( 2 razy do 10 C ) z temperaturą tak że przyrost T o 60 C ( czyli praca z maksymalną mocą 1/4 W) powoduje po roku zmianę rezystancji o 0.1%.
C.Optymalne napięcie zasilanie dla IA zbudowanego z dwóch lub trzech OPA i precyzyjnych rezystorów. W takim IA tłumienie sygnału wspólnego CMRR jest proporcjonalne do wzmocnienia a to do maksymalnego sygnału wyjściowego OPA czyli napięcia zasilania pomniejszonego o „margines wyjścia”. Pobór mocy przez OPA MAA725 (=uA725) rośnie kwadratowo z napięciem zasilania a więc bardzo mocno ! W katalogu pokazano dryft po włączeniu zasilania tego OPA. Termiczna stała czasowa wynosi około minuty. Ruch powietrza wokół obudowy OPA polepsza chłodzenie i w rezultacie pojawia się niskoczęstotliwosciowy szum powstały z ruchu powietrza! Kolejny szum powstaje z nieidentycznych kasujących się napiec termoelektrycznych. Po obniżeniu napięć zasilania choroby te mijają jak ręką odjął ale pogarsza się CMRR. Potrzebny jest kompromis czyli optymalizacja.
D.Optymalny prąd dla pracy sensora PT100. Z popularnych sensorów dokładniejszy od sensora PT100 ( lub PT1000 ) jest tylko termometr kwarcowy ale jego zakres temperatur pracy jest niewielki. Z PT100 osiągalna jest rozdzielczość 0.001 C. Oporności termiczne sensorów PT100 są bardzo różne a ich iloraz przekracza 10 razy. Minimalizujemy ważoną sumę przyrostu temperatury w sensorze PT100 spowodowaną wydzielaną mocą ( nie uwzględniamy podgrzewania obiektu ! ) i dryftu OPA oraz dryftu temperaturowego i długoczasowego rezystorów „mostka” pomiarowego, szumu OPA, zakłóceń zbieranych kablem, cena kabla, fałszujące napięcia termoelektryczne, pozytywne czyszczenie złącz dużym prądem. Przy zmniejszaniu wartości rezystora zasilającego sensor PT100 rośnie kwadratowa nieliniowość ale można ja łatwo usunąć układowo lub programowo. A więc tą nieliniowość można uwzględnić lub nie uwzględniać.
E.Najlepsze napięcie zasilania dla … komputera CDC6600 i CMOS, RTVC...
W czasie wojny uruchomiono produkcje miniaturowych lamp elektronowych do ręcznych radiotelefonów i generalnie ulepszono technologie lamp. Po wojnie produkowano nieduże aparaty słuchowe z miniaturowymi lampami i zasilaniem bateryjnym 22V. Natomiast tranzystory były początkowo prymitywne ale szybko się rozwijały.
Masowo produkowane w USA samochody osobowe często miały radioodbiorniki umilający podróż kierowcy i pasażerom. Kłopotliwym elementem był wibrator przetwornicy dostarczającej lampom napięcia anodowego 250 V. Duży pobór mocy był niebezpieczny dla rozładowywanego akumulatora przy wyłączonym silniku auta. Toteż wzmacniacze mocy audio w odbiornikach samochodowych szybko stranzystorowano a jednocześnie wyprodukowano lampy pracujące w części radiowej z napięciem anodowym 12 V a nawet 6 V (!) ale ulepszane tranzystory dość szybko jej wyparły.
W ZSRR szybko dostrzeżono potencjał tranzystora. W 1959 roku w Nowym Jorku na wystawie nagrodzono stołowy tranzystorowy sieciowo - bateryjny odbiornik radiowy Mińsk ! Z uwagi na małą moc wyjściową ( tylko takie mieli tranzystory ) i oszczędność baterii dano mu efektywny głośnik. W 1962 roku temu radioodbiornikowi dodano zakres UKF i to na siermiężnych tranzystorach.
Motorola w 1961 roku pokazała tranzystorowy stołowy odbiornik TV jako reklamę swoich doskonałych tranzystorów. O ile odbiornik TV lampowy pożerał 180 W mocy i był awaryjny to tranzystorowy pobierał 60 W i był coraz bardziej niezawodny. Zatem korzyści są poważne i jest pole do optymalizacji szczególnie w krajach gdzie produkcja energii elektrycznej jest droga lub bardzo droga jak w Polsce. Niedługo Sony wypuścił mały przenośny odbiornik TV do użycia m.in. w samochodzie. Ale tranzystory mocy do stopni H-Out i V-Out i częściowo Audio były dość drogie i produkowano odbiorniki telewizyjne gdzie część sygnałowa była zrealizowana na tranzystorach a lamp użyto w stopniach wyjściowych mocy H-Out, V-out, Video-Out i Audio oraz diodę w prostowniku HV do anody kineskopu. Sytuacja z odbiornikiem samochodowym była zatem odwrócona. Na Zachodzie produkcje odbiorników tranzystorowo – lampowych poniechano na początku lat siedemdziesiątych. Technologia w krajach RWPG jest tak opóźniona że nadal są one produkowane. Z sieciowym zasilaczem impulsowym nowoczesny stołowy odbiornik TV winien pobierać z sieci 30 W mocy a odbiornik TVC 80 W.
W pierwszym w świecie superkomputerze CDC6600 użyto bardzo szybkich tranzystorów 2N709 ale początkowo były one utajnione i nie były towarem na rynku. Im wyższe jest napięcie zasilania do użytego tam rodzaju prostej logiki ( załóżmy rezystory optymalnie dopasowane do napięcia zasilania !) tym bramki są trochę szybsze i odrobinę lepsza jest tolerancja zakłóceń ale rośnie pobierana moc i generacja ciepła a im wyższa temperatura tym wolniejsza jest logika i mniejszy margines zakłóceń. Napięcie wybrano optymalnie.
Obecnie układ w technologi CMOS ma circa 2-3 razy tyle funktorów co układ TTL / ECL o tej samej powierzchni wytworzony na podobnej rozdzielczością technologicznie linii. Zarazem jest 2 krotnie wolniejszy. Zatem technologia bipolarna już straciła racje bytu. Szybkość działania układów CMOS rośnie z napięciem ale rośnie też pobór mocy i temperatura „procesora” czyli jego zawodność. Dodatkowa scalona logika do zmiany w czasie pracy częstotliwości taktowania systemu jest trywialna. Gdy procesor jest słabo obciążony ( jałowo czeka w OS na przerwanie od głównego zegara ) obniżamy częstotliwość taktowania i napięcie zasilania z SMPS. Czyli napięcie zasilania regulujemy (algorytm regulacji ) tak aby procesor niedługo jałowo czekał na przerwanie głównego zegara OS. Szybkość podniesienia napięcia zasilania ogranicza częstotliwość pracy SMPS i wyjściowy filtr LC. Już obecnie może być poniżej 1ms.
F.Optymalne napięcie zasilania systemu H-Out w TV / TVC który pobiera do 90% mocy z zasilacza sieciowego SMPS. Przez niego przechodzi też zasilanie do V-Out, zarżenia kineskopu i Video Out i stąd aż 90%. Nieubłagana fizyka tranzystora bipolarnego sprawia ze z rosnącym napięciem Uceo spada szybkość pracy tranzystora i jego wzmocnienie. Zakres indukcyjności na jaką może być wykonany zespół odchylający kineskopu (DY – Deflection Yoke ) jest ograniczony i jest bardzo pożądane aby energia do odchylania z klucza była podana do DY bez udziału transformatora.
Klucze – tranzystory do systemu H-Out na minimalne katalogowe napięcie Uceo=700 V i Ucbo=1500 V obecnie zapewniają najlepszą sprawność systemu H-Out i liniowość odchylania. Tranzystory na napięcie 800 /1700 V nie przyjęły się. Podobnie z mniejszymi napięciami. Szczyt napięcia kolektora wynosi do 1200 V i wyłączony tranzystor ma napięcie większe od Uceo. Jest to w zasadzie jedyne masowe zastosowanie gdzie tranzystor bezpiecznie pracuje z napięciem dużo wyższym od Uceo. Przy maksymalnym używanym prądzie kolektora ich wzmocnienie wynosi 2-3 razy a dla minimalizacji strat dynamicznych wyłączania kształt prądu bazy musi być optymalizowany. Z najnowszymi tranzystorami – kluczami straty w odbiorniku TV są tak małe ze zbędny jest chłodzący tranzystor radiator. Z nowoczesnym zasilaczem SMPS i transformatorem FBT odbiornik TVC z ekranem 22-26 cali pobiera trochę ponad 80 W mocy a odbiornik czarno biały 30 Wat.
Obniżona temperatura elektroniki w TV / TVC bardzo pozytywnie wpływa na niezawodność odbiornika, koszty serwisu i żywotność. Odbiorniki powinny się zestarzeć „moralnie” bez napraw !
Zatem energooszczędność odbiornika TVC ma duże znaczenie gospodarcze ! Niestety Cemi nie potrafi takich tranzytów wysokonapięciowych wyprodukować mimo iż są masowo produkowane w ZSRR i NRD.
30.Pomysł
Asynchronicznym łączem szeregowym obsługiwanym przez U(S)ART ( Uniwersal Asynchrous Receiver Transmitter, Dodatkowo Synchrous jest trochę bardziej skomplikowany ) komunikują się urządzenia mające mikroprocesor. Mikrokontroler ma z reguły zintegrowany UART.
Interface szeregowy choć dużo wolniejszy jest bardzo wygodny na tle interface równoległego z grubym i drogim kablem. Siłą rzeczy krótkim.
Ogromną wadą komputera PC jak praktyczny brak obsługi różnych łączy szeregowych ale faktycznie DOS nie jest przecież operacyjnym systemem sieciowym.
Mikrokontrolery tanieją ale na razie jego zastosowanie w sensorze z szeregowym interface komunikacji bardzo podraża taki sensor a elektronika nie mieści się w typowej obudowie !
Intersil dał aplikacje do przetwornika ADC ICL7109 z UARTEM bez mikroprocesora. Jest to analogowe multiplexowane wejście połączone z mikrokomputerem (długim) interface szeregowym. Niestety są dwie linie dla kierunków komunikacji i w sieci automatyki rozwiązanie to jest bezużyteczne
Norma dotycząca RS232 (Recommended Standard ) z 1962 przewiduje liczne sygnały handshake do operowania i monitorowania stanu współpracującego urządzenia jak modem telefoniczny i radiowy oraz radiostacja lub inne.
Natomiast standardy łącza szeregowego do sieci automatyki RS422 i RS485 linii handshake oczywiście nie mają.
Pierwsza generacja systemów zdalnego sterowania do RTVC zbudowana była z prostych wyspecjalizowanych układów w technologi PMOS. Analogowe układy wykonawcze regulowane były (Głośność, Bass Treble, Jasność, Kontrast, Nasycenie ) napięciem stałym powstałym filtrem dolnoprzepustowym RC z sygnału PWM z kontrolera. Pierwszym układem z regulacją głośności napięciem stałym był udany układ toru IF - FM TBA120 z 1972 roku.
Druga generacja zbudowana była na 4 bitowym mikrokontrolerze z bardzo rozbudowanymi peryferiami a nawet syntezerem napisów OSD ( On Screen Display ). Do opracowanego przez Philipsa systemu Teletekst (wcześniej nazwany Ceefax) potrzebna była komunikacja cyfrowa z mikrokontrolerem.
Obecnie w katalogu Philipsa większość układów wykonawczych ( analogowych i cyfrowych ) do systemów Audio i Video oraz innych (można ich użyć też w przyrządach pomiarowych ) ma wbudowany interface komunikacyjny do sieci(!) łączności I2C.
I2C ma linie SDA ( system data ) i SCL ( system clock ). Wszystkie układy mają do SDA i SCL wyjścia open dren /colector i realizowana jest systemowo funkcja wired – OR. Każdy rodzaj układu ma swój adres ( część A, AA, AAA adresu może być wczytana pinami ) w sieci I2C i zastosowanie dwóch takich samych układów bez A, AA, AAA z powodu kolizji adresów jest niemożliwe ale w systemach RTVC taka potrzeba nie występuje.
Realizacja w układzie peryferyjnym interface I2C zajmuje tylko około 500-1000 tranzystorów.
Mikrokontroler czy procesor może zamiast sprzętu interface I2C połowicznie wykonać funkcjonalność niededykowanym sprzętem i programowo ale ma to wiele wad i obciąża procesor.
Prostym programem w Pascalu można interfacem drukarki emulować kontroler I2C.
Stąd dedykowane mikrokontrolery Philipsa mają interface I2C. Interfejsem I2C mogą się też komunikować urządzenia. Na przykład pilot do wieży Audio jest jeden i współpracuje łączem podczerwieni z mikrokontrolerem we wzmacniaczu ( on musi być zawsze ) lub amplitunerze a on poprzez I2C dyryguje tunerem, magnetofonem, odtwarzaczem CD, gramofonem. Mankamentem interface I2C jest żądanie Philipsa opłat Royalties jeśli symbol I2C umieszczony jest na urządzeniu lub w jakimkolwiek materiale informacyjnym.
Układ Philipsa PCF8591 z interface I2C to „4-channel, 8-bit Mux ADC and one DAC”o „slave adress” 1001AAA.
Autor do analogowych wejść układu PCF8591 podłączył tranzystor jako samowzmacniający czujnik temperatury, fototranzystor, fotoopornik i sensor wilgoci a na wyjściu DAC diodę LED z tranzystorem. Komunikacja z komputerem PC jest portem drukarki ale nie można używać równolegle drukarki.
Przetwornik ADC można zbudować z DAC oraz komparatora i rejestru kolejno aproxymacyjnego SAR. Ustalony bit jest od razu wystawiany na wyjście interface i system jest zdumiewająco prosty.
Do innych interface produkowane są podobne układy o rozdzielczości 10-12 bit ale nie adresowanych siecią a z pinem CS – Chip Select .
Prostota wszystkich tych interface wynika z braku w nich systemu elementowej podstawy czasu bo sygnał taktujący jest doprowadzony. One służą tylko do lokalnej komunikacji z dystansem 50 cm. Zatem do interface szeregowego automatyki się zupełnie nie nadają.
Zatem do sensora potrzebny jest tani ADC zintegrowany z UARTEM z ustalonym prostym protokołem. Sieciowy adres sensora może być ustawiony DIP switchem lub jeśli układ ma pamięć nieulotną wpisaniem mu adresu programatorem przy budowie systemu na obiekcie.
Opracowanie programu mikrokontrolera jest drogie. Aby program umieścić w wewnętrznej pamięci ROM konieczne jest wykonanie dla konkretnego programu kompletu masek fotolitograficznych co jest kosztowne. Zatem minimalna długość serii produkcyjnej mikrokontrolera z programem jest dość duża. Alternatywnie program może zawierać zewnętrzna pamięć Eprom co blokuje dużą ilość pinów - portów mikrokontrolera i skutkuje koniecznością użycia układów peryferyjnych lub droższego mikrokontrolera w obudowie z dużą ilością portów – pinów.
Firmy oferują mikrokontrolery z programem w pamięci ROM do konkretnego zastosowania w sprzęcie RTV, AGD, telefonie.. Z reguły są one trzykrotnie droższe niż „goły” mikrokontroler.
Zatem średni producenci sprzętu kupują taki mikrokontroler z programem płacąc głównie za program.
Zatem per analogia są potrzebne do sensorów zintegrowane adresowane układy ADC-UART z trywialnym protokołem komunikacyjnym.
Adresowalnych analogowych czujek pożarowych (znane są z patentu proste i dobre schematy jonizacyjnych czujek Siemensa ) na jednej linii może być do 15.
CzujkaSiemens.jpg
W każdej czujce w szereg z jednym przewodem linii jest tranzystor – klucz. Analogowym parametrem jest czas generowanego przez czujkę impulsu gdy załączana jest kolejna czujka na linii. Analogowy sygnał w czujce pochodzi z jonizacyjnego czujnika dymu lub sensora temperatury lub układu mierzącego migotanie płomienia pożaru. Zaletą jest to że uszkodzenie linii nie blokuje wcześniejszych czujek na niej. Wymagana dokładność nie jest duża bo czujki pokazują dynamikę rozwijania się pożaru co jest bardzo cenne. Systemy z takimi czujkami są bardzo dobre bowiem rzadko podnoszą fałszywy alarm.
Dokładność przetwornika Napięcie / Czas może być jednak znaczna a długość linii zniekształcającej przecież impuls jest ograniczona. Przy sprytnym dopasowaniu linii zniekształcenia czasu są minimalne. Przeprowadzone przez autora próby z dość długim przewodem dały bardzo dobre wyniki ! Z uwagi na to ze napięcie na linii nie jest cały czas obecne moc do zasilanego ciągle układu sensorów pochodzi z buforującego kondensatora. W sensorze do systemu automatyki część wewnętrznych sensorów ( jak PT100 ) może być zasilana chwilowo w czasie pomiaru dla oszczędności energii.
W takim rozwiązaniu sam kontroler nie ma części analogowej a czasy z linii od sensorów zlicza licznik mikrokontrolera lub komputer PC.
N.B.Osiągana dokładność pomiaru czasu jest ogromna.
W dokładnych przetwornikach D/A ( i pochodnych A/D z rejestrem SAR) stosuje się dokładne i stabilne rezystory cieńkowarstwowe. Rezystory wykonane w technologi CMOS nie są dokładne ani szczególnie stabilne. Na rysunku pokazano 255 szeregowo połączonych rezystorów w 8 bitowym przetworniku D/A lub A/D w technologi CMOS. Rozwiązanie to gwarantuje monotoniczność charakterystyki przetwarzania a błędy całkowe też są znośne. W mikrokontrolerach takie przetworniki w systemie A/D mają rozdzielczość do 10 bitów i tam rezystorów jest 1023 a kluczy dwa razy tyle. Ilość elementów w takim przetworniku jest podobna jak w prostym procesorze 8 bitowym ale mikrokontroler z rozbudowanymi peryferiami i pamięcią 8 kB ma więcej elementów niż procesor 80286 napędzający komputer PC AT a wraz z 8 wejściowym wejściowym multiplexerem ADC podnosi mocno funkcjonalność mikrokontrolera. Zatem optymalizacja ekonomiczna funkcjonalność / koszt_produkcji decyduje o zaangażowaniu aż tak dużej ilości (bardzo tanich ) elementów do ADC w mikrokontrolerze.
Dużo bardzo interesujących informacji. Część jest ponadczasowa i się nie starzeje.
OdpowiedzUsuńTrzeba poprawić literówki.