Laboratorium zaawansowanej elektroniki i automatyki 62
Polacy cenią walory samochodów osobowych, autobusów i ciężarówek. Kolej źle im się kojarzy.
Najdłuższa trasa kolejowa, jaką od zera wybudowano w III RP, liczy niecałe... 20 kilometrów.
Pociągi się coraz bardziej spóźniają. "Opóźnienie może ulec zmianie"
Wysadzenie rurociągów gazowych na dnie Bałtyku uderzyło w ich właścicieli. Właściciele Nord Stream AG to m.in:
-Gazprom z 51% udziałów
-Niemieckie E.ON i Wintershall Dea (BASF) po 15,5%
-Holenderska Gasunie 9%
-Francuska Engie - 9%
Talerze Schrodingera: Są jednocześnie niezbite i zbite dopóki nie otworzysz drzwi.
W farmach wiatrowych zainstalowane jest 8,8 GW, z czego do sieci średnich napięć przyłączonych jest 2,5 GW, do sieci wysokiego napięcia 5,1 GW, a do sieci najwyższych napięć PSE przyłączonych jest 1,2 GW.
Na koniec sierpnia 2022 roku zawarte umowy na przyłączenia wynoszą aż 31 GW mocy przyłączeniowych, z czego 7 GW w elektrowni wiatrowych, w przypadku elektrowni słonecznych 15,7 GW oraz 8,3 GW w przypadku morskich farm wiatrowych.
Słońce i wiatr jako źródła energii odnawialnej dostarczają ją w sposób nieciągły i niezgodny z potrzebami odbiorców. Dotychczas tradycyjne elektrownie spełniały systemowe zadania regulacyjne i dokonywały bilansowania systemu.
Jednak zastosowanie wiatraków i ogniw fotovoltaicznych w wielkiej skali a zmniejszenie przy tym generacji w tradycyjnych elektrowniach stwarza potrzebę istnienia systemów przechowywania energii. „Zielona energia” wymaga potężnych inwestycji w infrastrukturę. Sama budowa europejskiej „Smart Grid” ma kosztować aż 565 mld Euro.
Temat przechowywania energii wyczerpująco podjęto w 2013 i 2015 roku. Od tego czasu niewiele się zmieniło. Staniały trochę akumulatory litowo – jonowe ale od pewnego czasu już nie tanieją. Powtarzanie więc informacji jest zbędne.
https://matusiakj.blogspot.com/2013/08/przechowywanie-energii.html
https://matusiakj.blogspot.com/2015/03/przechowywanie-energi-elektrycznej.html
Najlepszym rozwiązaniem dla przechowywania energii były i są elektrownie pompowo-szczytowe. W Polsce nie ma wielu dobrych lokalizacji do ich budowy. Jest co najmniej 9 dość dobrych lokalizacji o sumarycznej mocy 5-6 GW. Koszt budowy mocy 1 GW w obecnej wartości złotówki wynosi około 7 mld zł za moc 1 GW. Natomiast pojemność energetyczna zależy od wielkości zbiorników wody i różnicy ich poziomów.
Polska energetyka jest obecnie europejskim skansenem. Pokazuje jak niepoważne, głupie i szczeniacke były rządy III RP.
Budowę wielu elektrowni pompowo – szczytowych w PRL zahamował głęboki kryzys ale i tak część zbudowano.
Jeszcze nie tak dawno żyło się bardzo krótko. Sytuacje zmieniła rewolucja wodno- kanalizacyjna i wszechstronne zastosowanie energii. W długiej perspektywie historycznej ludzkość „z dnia na dzień” czy wręcz w ułamku sekundy doświadczyła ogromnej i bezprecedensowej poprawy jakości życia. Zauważalny wzrost gospodarczy rozpoczął się dopiero w połowie XVII wieku wraz z rewolucją przemysłową! Wcześniej były tysiące lat stagnacji.
Korzyści z ogrzewania omówiono w „Mieszkanie i ogrzewanie”.
Temperatura w mieszkaniu nie powinna spadać poniżej 18 C. https://www.bankier.pl/wiadomosc/Czy-18-stopni-w-domu-na-pewno-wystarczy-Niedogrzane-lokum-to-prosta-sciezka-do-klopotow-zdrowotnych-8413620.html
"Czy 18 stopni w domu na pewno wystarczy? Niedogrzane lokum to prosta ścieżka do problemów zdrowotnych
Wyniki badań naukowych potwierdzają, że niedogrzanie mieszkania negatywnie wpływa na zdrowie. Przyglądamy się skutkom zbyt niskiej temperatury w domu.
Obawy na progu rozpoczynającego się sezonu grzewczego na pewno są uzasadnione - pomimo działań osłonowych, które z lepszym lub gorszym skutkiem próbuje wprowadzać rząd. Kryzys energetyczny jest oczywiście zmartwieniem nie tylko dla polskich rodzin. Docierają do nas informacje o krajach UE, które próbują zalecić lub wręcz wymusić utrzymywanie w domu niższej zimowej temperatury niż przez poprzednie lata. Takie oszczędności, o których decydują gospodarstwa domowe, na pewno nie powinny być przesadne. Istnieją bowiem dowody, że zbyt niska temperatura w domu negatywnie wpływa na zdrowie. Wbrew pozorom, problem związany z ubóstwem energetycznym i niedogrzaniem domów nie jest żadnym novum - również w Europie Zachodniej. Świadczą o tym nowe dane Eurostatu, które sprawdzili eksperci portalu RynekPierwotny.pl.
Układ oddechowy nie zawsze jest najbardziej zagrożony
W pierwszej kolejności warto wyjaśnić, że pod pojęciem niedogrzania nie rozumiemy ekstremalnych sytuacji, które niekiedy prowadzą do szybkiej śmierci w warunkach zimowych. Przykładem są skutki zamieszkania zupełnie nieogrzewanych budynków przez osoby w kryzysie bezdomności. Niedogrzanie domów i lokali niestety też zbiera śmiertelne żniwo. Ostrożne szacunki WHO z początku minionej dekady wskazywały, że niska temperatura pomieszczeń skutkowała dodatkową śmiertelnością na poziomie 13 osób/100 000 mieszkańców. Był to średni wynik dla 11 badanych krajów Europy.
Wbrew powszechnemu przekonaniu nadmiarowe śmierci na skutek zbyt niskiej temperatury pomieszczeń nie muszą być związane przede wszystkim z chorobami układu oddechowego (odpowiadającymi za 15% - 33% zgonów). Według badań WHO Europe sprzed ponad 10 lat główną przyczyną nadmiarowych zgonów były schorzenia układu krążenia. Odpowiadały one za ok. 50% - 70% dodatkowych śmierci lokatorów niedogrzanych domów i mieszkań w zimnej porze roku (zobacz: Raport Environmental burden of disease associated with inadequate housing, WHO Europe).
Na negatywne skutki szczególnie narażeni są seniorzy
Badania naukowe zwracają uwagę, że nie tylko dolegliwości ze strony układu oddechowego i układu krążenia są częstym efektem przebywania w niedogrzanych i wilgotnych pomieszczeniach. Poza tym pojawiają się np. problemy ze złym samopoczuciem i zdrowiem psychicznym - zwłaszcza u osób, które wcześniej miały dolegliwości powiązane z układem oddechowym (zobacz: Howden-Chapman P, Matheson A, Crane J, Viggers H, Cunningham M, Blakely T, et al. Effect of insulating existing houses on health inequality: cluster randomised study in the community. BMJ. 2007;334(7591):460).
Szczególnie podatne na efekty niedogrzania pomieszczeń są też prawdopodobnie osoby w wieku powyżej 65 lat, doświadczające wcześniej problemów z układem krążenia (zobacz na przykład: Telfar Barnard L, Preval N, Howden-Chapman P, Arnold R, Young C, Grimes A, et al. The impact of retrofitted insulation and new heaters on health services utilisation and costs, pharmaceutical costs and mortality: evaluation of Warm Up New Zealand). Warto pamiętać, że u seniorów (również polskich) problemy sercowo-naczyniowe są powszechne.
Czy 18 stopni wewnątrz domu powinno nam wystarczyć?
W kontekście oszczędzania na ogrzewaniu, dość często pojawiają się pytania, jaka temperatura wewnątrz jest optymalna. Raport WHO z 2018 r. wskazuje na umiarkowanie pewną zależność między temperaturą wyższą od 17 stopni oraz spadkiem śmiertelności i zachorowalności dotyczącej układu krążenia oraz układu oddechowego. Wyniki badań ze Szkocji sugerują możliwy wzrost ciśnienia krwi w temperaturze wynoszącej poniżej 18 stopni (zobacz: Cold homes are associated with poor biomarkers and less blood pressure check-up: English Longitudinal Study of Ageing, 2012–2013. Environmental Science & Pollution Research International. 2016;23(7):7055–9.).
Wspomniane 18 stopni Celsjusza należy traktować jako zupełne minimum - np. podczas snu. Wciąż aktualne badania WHO wskazują, że wyższe temperatury we wnętrzu sięgające nawet 23 - 24 stopni Celsjusza nie stanowią zagrożenia z punktu widzenia zdrowotnego dla zdrowych dorosłych prowadzących siedzący tryb życia (zobacz: Health impact of low indoor temperatures. Regional Office for Europe: World Health Organization; 1987). Poza tym osoby z chorobami układu krążenia, dzieci i seniorzy mogą mieć wyższe wymagania co do minimalnej temperatury niż 18 stopni.
Cieplejszy klimat wcale nie oznacza braku problemów
Wiele wyników ciekawych badań naukowych na temat skutków niedogrzania pomieszczeń dotyczy krajów wysoko rozwiniętych. Chodzi również o państwa cechujące się łagodniejszym klimatem niż Polska. Niedawno opublikowane informacje Eurostatu z 2021 r. wskazują, że największym odsetkiem ludności niemogącej odpowiednio ogrzać domu cechowały się następujące państwa Europy:
Bułgaria - 23,7%
Litwa - 22,5%
Cypr - 19,4%
Grecja - 17,5%
Portugalia - 16,4%
Hiszpania - 14,2%
Rumunia - 10,1%
Analogiczny wynik dla Polski z 2021 r. wynosił zaledwie 3,2% i był dużo mniejszy od unijnej średniej (6,9%). Informacje dotyczące krajów śródziemnomorskich nie powinny dziwić biorąc pod uwagę raczej słabą izolację termiczną tamtejszych domów i możliwość występowania zimowych temperatur poniżej 5 stopni Celsjusza. Pewne znaczenie ma też relatywnie wysoki poziom bezrobocia."
Po definitywnym zlikwidowanie w 1971 roku oparcia dolara na złocie od 1973 roku funkcjonuje petrodolar. USA każdemu „kto mu nie podpadł” gwarantuje możliwość kupienia / sprzedaży „ropy” ( jest ich mnóstwo gatunków i lokacji ) naftowej po cenie rynkowej a po prawdzie możliwość kupienia wszelkich surowców co dla gospodarki światowej ma potężne znaczenie. Z jednej strony USA mają pasożytniczą korzyść z drukowanie dolara i generowania inflacji w całym świecie. „To jest nasz dolar i wasz kłopot”. Z drugiej strony kombinacjami, brudnymi grami, prośbą, groźbą i krwawą przemocą USA sprawiały że niedrogie surowce zasilały światowy rynek. Korzyść z tego miał głównie Zachód, który jednak w potężnych kosztach wszelkich akcji USA w zasadzie nie uczestniczył a nawet sypał piach w tryby ! Coraz bardziej oczywiste stawało się że cierpliwość USA się kończy.
Prominentny Niemiec Robert Habeck: "Komisja Europejska powinna wypracować nowe stanowisko w negocjacjach z państwami, które dostarczają nam gaz. Jesteśmy partnerami, a partnerstwo nie przewiduje eksploatacji".
To Europa musi uprzejmie prosić o obniżenie cen gazu a nie może pogrozić, nałożyć sankcji, wysłać lotniskowców, marines i rakiety tak jak czyniły to USA ?
Czy obecny kryzys energetyczny może zakwestionować europejski model rozwoju ? Pojawiły się takie opinie. Poprzedni kryzys energetyczny ( szoki w latach 1973 i 1979 ) na dłuższą metę nie zaszkodził EWG. Jednak czym słabszy kraj, tym większe ryzyko trwałych efektów kryzysu.
Jednak wtedy sytuacja była o wiele lepsza niż obecnie.
Wskaźnik PKB jest użyteczny ale ma mnóstwo wad. Stosowane są w wyliczeniach ceny brutto a usługi państwa wlicza się po kosztach.
PKB pc nie jest miarę Rozwoju Społecznego ale jest z nim skorelowany.
W Stanach Zjednoczonych mocno skorumpowana jest m.in. polityka i ochrona zdrowia.
W USA sektor ochrony zdrowia odpowiada za ca 18% PKB co jest światowym rekordem. Średnia długość życia jest tam mniejsza niż na biedującej Kubie. Jak wygląda patologiczna „ochrona zdrowia” w USA pokazują dwa przykłady poniżej.
1.Cena insuliny w USA jest najwyższa w świecie. Średnio za jedną jednostkę tego hormonu w Stanach Zjednoczonych trzeba zapłacić aż 98,70 dolarów. W 32 krajach należących do OECD średnia cena insuliny wynosi 8,81 dolarów. W rezultacie wielu Amerykanów chorujących na cukrzycę jest zmuszonych przeznaczać na zakup lekarstwa znaczną część swoich dochodów, a znaczna część zaciąga długi aby kupować insulinę. Demokraci złożyli ustawę powodującą że osoby posiadające ubezpieczenie zdrowotne zaczęłyby płacić za insulinę nie więcej niż 35 dolarów miesięcznie. Jednak Republikanie sprzeciwili się wprowadzeniu prawa w proponowanej przez Demokratów formie. Przyjęcie ustawy w okrojonej formie i tak poprawi sytuację finansową wielu cukrzyków, gdyż 41,1 % z nich jest ubezpieczona właśnie w ramach publicznego Medicare.
2.W USA sytuacja („Dreamland. Opiatowa epidemia w USA”, Sam Quinon) związana z zażywaniem "leków" - opioidów jest katastrofalna i pogarsza z roku na rok.
Niemiecka firma Bayer dokonała syntezy heroiny w 1897 roku i sprzedawała ją pacjentom, którzy cierpieli na kaszel i bóle. Heroina miała być 10 razy efektywniejsza od kodeiny, powodować zdecydowanie mniej skutków ubocznych i miała być zupełnie bezpieczna dla osoby, która ją przyjmuje. Okazało się jednak że heroina jest śmiertelnie niebezpieczna. Lekarze bardzo ostrożnie wypisywali leki opartych na opioidach.
Purdue Pharma w latach dziewięćdziesiątych opracowała "lek" przeciwbólowy OxyContin z substancją oksykodon molekularnie bardzo podobną do heroiny. Firma ruszyła z kampanią marketingową mającą promować używanie go.
Purdue Pharma zatrudniła ogrom przedstawicieli handlowych, którzy spotykali się z lekarzami i namawiali ich do użycia nowego, „bezpiecznego” leku przeciwbólowego. Firma zaczęła organizować "konferencje naukowe" w luksusowych hotelach, na których przekonywano medyków do stosowania nowego cudownego środka, który miał sobie poradzić z uciążliwym bólem pacjentów. Co więcej, pokazywano nawet dwa lewe badania na potwierdzenie tezy o tym, że OxyContin nie ma prawa uzależnić. Obydwa "badania" były lewe i skrajnie nierzetelne. Lekarze zamiast badać i diagnozować pacjentów zmuszeni byli wypisywać pacjentom narkotyki, bo tak było najtaniej. Purdue Pharma ze sprzedaży OxyContin od 1996 do 2016 roku zarobiła na czysto ponad 12 miliardów dolarów, wpędzając wielu ludzi w straszny nałóg.
Popularność OxyContinu i innych leków opartych na opiatach spowodowała powstanie "fabryk prochów".
Lekarze wypisywali obłędne ilości opioidów osobom uzależnionym. Jednym z takich lekarzy był George Blatii, który w 5 lat wypisał nielegalnie ponad 1,8 miliona recept na silnie uzależniające środki. Legalnie działające kliniki niczym nie różniły się od hurtowych sprzedawców narkotyków.
Wygenerowana, na różne sposoby, inflacja jest bardzo trudna do stłumienia. Na wykresie pokazano doświadczenia krajów rozwiniętych w okresie lat 1980-2020. Gdy inflacja przekroczy 5% średnio potrzeba 10 lat aby spadła do 2 %.
Obecna wojna pokazuje co oligarchiczna korupcja zrobiła z Rosją. W wojnie z Ukrainą Rosja jest tak słaba że rozważa użycie broni jądrowej mając świadomość że gdy to zrobi stanie się niedotykalnym światowym pariasem i gardzące nią Chiny będą jej płacić za surowce 20% światowej ceny.
Włochy rozwijały się osiągając szczytowo GDPpc, PPP w wysokości 3.5 światowego. Teraz mają 2 i dalej spadają w otchłań bo mają straszliwy kryzys demograficzny i potworne długi. To znów korupcja.
Źle wiedzie się też Hiszpanii która też ma kryzys demograficzny podobny jak Polska. Na rysunku pokazano TFR w regionach Europy w 2020 roku. Jeśli rozpoczynający się kryzys zada nam ciężkie szkody to będzie to koniec marzeń o dobrobycie. Jak uda się zminimalizować szkody to znów awansujemy.
Rząd sanacyjnych przygłupów - złodziei doprowadził że tego ze Wielki Kryzys zdewastował Polskę potwornie ją osłabiając. Z tego wynikała łatwość podboju Polski przez Niemcy.
Każdy kryzys stwarza przegranych którzy mogą chcieć wojny.
W 2008 roku jedno silne Euro kosztowało momentami 1.6 słabego dolara. Od około 2013 roku Strefa Euro ( mimo słabeuszy w niej ) wytwarzała stałą nadwyżkę handlową ze światem, circa 20 mld Euro rocznie. To była podstawa stabilności i dobrobytu całej Europy. Ropa i inne surowce były tanie. Sytuacja dla Europy była super komfortowa. Ale przy wychodzeniu z kryzysu po Covid-19 import rósł dużo szybciej niż eksport. Ze stałej nadwyżki zrobił się nam ciągle rosnący 40 miliardowy deficyt. W 2021 roku deficyt w surowcach energetycznych dla Europy wynosił 128 mld euro. W 2022 roku eksplodował i do lipca wyniósł już astronomiczne 352 mld euro. Niemcy z przybocznymi robiąc wszystko co w ich mocy nie są w stanie swoim eksportem zrównoważyć takich kwot i Euro słabnie.
Wiele czynników wskazują na to że era tanich surowców dobiegła końca. Każdy Europejczyk powinien trzymać kciuki za to żeby Niemcy z przybocznymi zwiększyli eksport i wypracowali nadwyżkę Europy w handlu ze światem. Bez tej nadwyżki handlowej Europy ze światem dobre czasy się skończą. Wielki dobrobytu z latami pryśnie jak banka mydlana.
To co się teraz dzieje ze szmatławą złotówką to efekt braku tej nadwyżki handlowej.
Komisja Europejska z powodu korupcji Węgier wstrzymała im część dotacji. Forint słabnie a inflacja rośnie. Gorzej może być z Polska, która ma znaczny deficyt w handlu zagranicznym.
Niemcy są za duże na Europę a za ma małe na świat. Próba realizacji ich wielkich idei sprowadza na Europę nieszczęścia.
1.Trudno jest przypisać Niemcom wyłączne sprawstwo I Wojny. Domagali się tego co w retoryce kolonialnej im się należało. Albion w każdej chwili mógł wojnie zapobiec ale podobała mu się redukcja potencjału konkurentów na kontynencie. Niemcy chcieli stworzyć Mitteleurope ( najpotężniejszy blok gospodarczy na świecie ) na której niejawnie podporządkowane im „suwerenne” państwa ( które tworzyli po1916 roku, w tym Polskę ) z pewnością dużo by zyskały. Wojnę rozstrzygnęły USA a Europa straciła swoje znaczenie. Niesłusznie obarczone winą i obarczone potężnym reparacjami okrojone Niemcy czuły się mocno skrzywdzone.
2.II Wojna była efektem Wielkiego Kryzysu i dogrywką I Wojny. Na Zachodzie była to wojna tylko o kierownictwo polityczne zjednoczonej Europy ( Brytyjczycy tak samo bombardowali współpracującą z Niemcami Francję jak Niemcy ) a na Wschodzie mordercza wojna o ziemie Podludzi. Ale nazizm tylko trochę rozwinął idee eugenuki, którą już wcześniej szeroko stosowano w USA, Szwecji i wielu innych krajach. Hitler i jego banda nie wymyślili eugeniki a wtedy była to poważana nauka mająca silne przełożenie na politykę i ustawy ! Szeregowi żołnierze niemieccy ( i ich koalicji ) myśleli że robią dobrze eksterminując podludzi ! Gdy w Szwecji ujawniono skalę pozbawienia płodności „podludzi” przez pół wieku, wybuchł potworny skandal. Niemcy nie zajęli Szwecji bo to byli ich eugeniczni nauczyciele a ich przemysł pracował dla III Rzeszy ! Wybuch Zimnej Wojny uratował Szwedów ( i innych bydlaków ) bo alianci z pewnością by ich surowo ukarali za ich wojenny wkład.
3.Paliwem przejściowym na okres niemieckiej ( europejskiej ) zielonej energetycznej rewolucji ( to kolejna ich Wielka Idea ) miał być w dużej ilości gaz ziemny z Rosji. Zieloną energie wprowadzano potwornym kosztem i żelazną ręką. Jeszcze 12 lat temu w Niemczech 1/3 elektryczności pochodziła z elektrowni jądrowych, które ideologicznie wyłączano bez litości Ale rozwój technologii PV, wiatraków, akumulatorów, elektrolizy wody... był i jest o wiele wolniejszy niż to sobie wyobrażali Niemcy. Akumulatory litowo – jonowe długo taniały ale od pewnego czasu tylko drożeją. Technologie wodorowe istnieją na razie głównie na papierze.
W efekcie przez dwa lata będziemy mieć w niedogrzanych mieszkaniach temperaturę 18-19C. Czy po kryzysie Europa dojdzie do siebie to nie wiadomo. Raczej nie.
Columbia Climate School - „Im głębiej energia z wiatru i słońca wdziera się w nasze systemy, tym bardziej naraża nas na braki w dostępności energii. Niestabilność liczona dniami, tygodniami, miesiącami, a nawet latami... jest tak ogromna, że baterie z pewnością nie wystarczą.”
Idea „Smart Grid” pojawiła się na początku XXI wieku wraz z nadziejami na szybki postęp w dużej rozproszonej generacji w PV i w wiatrakach. Na razie została ośmieszona bowiem odbiorcy słono zapłacili za zupełnie niepotrzebną wymianę liczników elektromechanicznych na elektroniczne ze zdalnym odczytem, które pozwalają też zdalnie niepłacącego klienta odłączyć od sieci !
W przodującej w „zielonej energetyce” Kalifornii przerwy w dostawie energii stały się normą mimo iż wcześniej nie zdarzały się przez wiele lat !
Temat Smart Grid musimy rozebrać na części.
W USA oficjalna definicja Smart Grid z Energy Independence and Security Act of 2007 (EISA-2007) brzmi:
"It is the policy of the United States to support the modernization of the Nation's electricity transmission and distribution system to maintain a reliable and secure electricity infrastructure that can meet future demand growth and to achieve each of the following, which together characterize a Smart Grid: (1) Increased use of digital information and controls technology to improve reliability, security, and efficiency of the electric grid. (2) Dynamic optimization of grid operations and resources, with full cyber-security. (3) Deployment and integration of distributed resources and generation, including renewable resources. (4) Development and incorporation of demand response, demand-side resources, and energy-efficiency resources. (5) Deployment of 'smart' technologies (real-time, automated, interactive technologies that optimize the physical operation of appliances and consumer devices) for metering, communications concerning grid operations and status, and distribution automation. (6) Integration of 'smart' appliances and consumer devices. (7) Deployment and integration of advanced electricity storage and peak-shaving technologies, including plug-in electric and hybrid electric vehicles, and thermal storage air conditioning. (8) Provision to consumers of timely information and control options. (9) Development of standards for communication and interoperability of appliances and equipment connected to the electric grid, including the infrastructure serving the grid. (10) Identification and lowering of unreasonable or unnecessary barriers to adoption of smart grid technologies, practices, and services."
W EU od 2011 roku obowiązuje następująca definicja Smart Grid:
"A Smart Grid is an electricity network that can cost efficiently integrate the behaviour and actions of all users connected to it – generators, consumers and those that do both – in order to ensure economically efficient, sustainable power system with low losses and high levels of quality and security of supply and safety. A smart grid employs innovative products and services together with intelligent monitoring, control, communication, and self-healing technologies in order to:
1. Better facilitate the connection and operation of generators of all sizes and technologies.
2. Allow consumers to play a part in optimising the operation of the system.
3. Provide consumers with greater information and options for how they use their supply.
4. Significantly reduce the environmental impact of the whole electricity supply system.
5. Maintain or even improve the existing high levels of system reliability, quality and security of supply.
6. Maintain and improve the existing services efficiently."”
Pierwsza sieć prądu zmiennego działała od 1886 roku w Great Barrington w Massachusetts. We wczesnych latach sześćdziesiątych sieć energetyczna dotarła w krajach rozwiniętych dosłownie wszędzie, poza pustkowiami. Zachodnie systemy energetyczne stały się niezawodne. W niektórych miastach przerw w dostawie energii nie było przez 10 lat ! System miał zaspokoić wszystkich odbiorców energii czyli dostawcy musieli dbać o wyprzedzający rozwój generacji.
W konwencjonalnej elektrowni /elektrociepłowni cieplnej, atomowej lub wodnej moc wytwarza napędzany turbiną generator synchroniczny.
Krzywe V Mordeya pokazują statyczną generacje / konsumpcje mocy biernej przez maszynę synchroniczną w funkcji prądu wzbudzenie maszyny i generowanej mocy mechanicznej P.
Dla cos phi=1 wymagany prąd wzbudzenia wzrasta wraz z mocą P. Wzrasta on wraz z generowaną/oddawaną mocą czynną. Im mniejszy jest prąd wzbudzenie tym większy jest kąt pracy maszyny i gdy chce on przekroczyć 90 deg maszyna wypada z synchronizmu. Praca z małymi prądami wzbudzenia jest dynamicznie niebezpieczna. Kończenie się przy malejącym prądzie krzywej oznacza granicę synchronicznej pracy.
Każdy produkowany generator synchroniczny posiada wykres bezpiecznego obszaru pracy.
Jak widać gdy generator pobiera z sieci moc bierną Q pracując z małym wzbudzeniem ( mocy biernej dostarcza mu na przykład za słabo obciążona linia przesyłowa NN ) nie może oddać dużo mocy czynnej P. Ale z pełną mocą czynną P z dużym wzbudzeniem z kolei nie może za dużo mocy biernej Q oddać.
W modelu kołysań kątów pracy systemu generatorów masy odpowiadają bezwładności rotorów a sprężyny sumie indukcyjności synchronicznej generatora i łączących linii je przesyłowych.
Im większe jest wzmocnienie regulatorów napięć generatorów synchronicznych AVR
(Automatic Voltage Regulator ) tym większa skłonność do kołysań generatorów systemu energetycznego w różnych konfiguracjach generatorów. Stąd AVR ma podsystem filtrów (obecnie cyfrowych - programowych) PSS Power System Stabiliser obniżających wzmocnienie pętli regulacji przy krytycznych częstotliwościach. Rozkołysanie generatorów może prowadzić w końcu do upadku systemu ale PSS już dawno rozwiązały problem.
W świecie w energetycznych systemach przesyłowych Najwyższych Napięć dominują napięcia zmienne 50 / 60 Hz. Alternatywne linie przesyłowe prądu stałego HVDC są ekonomicznie opłacalne tylko przy długich dystansach przesyłu. Napięcia w systemach HVDC nie przekraczają 800 kVdc ale w Chinach funkcjonuje linia 1100 KVdc długości 3300 km o mocy aż 12 GW !
Linie HV są także stosowane do:
-Przesyłu mocy po dnie morza jako że użycie długich kabli NN dla prądu zmiennego jest niemożliwe. Liczba tych linii rośnie. Polskę ze Szwecją łączy linia o napięciu 450 KVdc. Okazała się wielokrotnie bardzo przydatna przy braku mocy w systemie energetycznym w Polsce lub Szwecji. Energią się też rutynowo handluje. Budowane są linie kablowe z Afryki do Anglii które będą przesyłać energie z paneli PV i wiatraków.
-Przy połączeniu systemów AC asynchronicznych w krajach / blokach. Długość linii może być w tym przypadku niewielka.
Rozwiązania do systemów HVDC oferuje niewiele światowych koncernów dyktujących wysoką marze.
Obecnie, od lat standardem w konwerterach AC-DC systemów HVDC są tyrystorowe sterowniki fazowe, które zniekształcają harmonicznymi prąd zmienny w sieci. Toteż konwerter AC-DC ma od strony sieci AC rozbudowany (i drogi ) filtr harmonicznych a i tak mogą one mieć podwyższony poziom co stwarza problemy z dołączeniem w sieci NN kondensatorów kompensacji mocy biernej !
Na rysunku pokazano symulowany system HVDC z filtrem harmonicznych dołączonych do sieci NN.
Pierwszy prymitywny program komputerowy o ograniczonych możliwościach do wyliczania przepływu mocy w sieciach prądu zmiennego uruchomiono i sprawdzono w USA w 1962 roku.
Wiedzę z tej dziedziny usystematyzowano w znakomitej : Computer Methods in Power System Analysis, Glenn W. Stagg, Ahmed H. El-Abiad, McGraw-Hill, 1968.
W książce omówiono też zagadnienie stabilności dynamicznej systemu energetycznego. Bardzo długo nie było lepszej pozycji w tej dziedzinie.
Linia reprezentowana jest w obliczeniach przez model Pi składający się z dwóch identycznych kondensatorów na wejściu i wyjściu linii oraz szeregowej indukcyjności z rezystancją. Im dłuższa ( w stosunku do częstotliwości ! ) jest linia tym mocniej pojemność dokładnego modelu Pi odbiera od iloczynu pojemności jednostkowej i długości linii a indukcyjność od iloczynu indukcyjności jednostkowej i długości linii:
http://matusiakj.blogspot.com/2019/11/pe-model-pi-liniiarchiwum.html
Analizę rozpływu energii sieciami przesyłowymi NN ( pracują normalnie w układach zamkniętych z rezerwą ) prowadzimy aby:
-Stwierdzić że energia poprawnie przepływa w pożądany sposób i podjąć optymalizujące środki zaradcze gdy jest inaczej
-Znaleźć najlepsze zastosowanie / lokacje dla nowej linii przesyłowej i stacji energetycznej
-Zoptymalizować regulacje napięć NN załączanymi dławikami i kondensatorami ustalając ich lokacje i algorytm działania
-Upewnić się że system będzie bezpiecznie pracował w konfiguracjach awaryjnych i ewentualnie znaleźć granice obciążeń dla stabilnej awaryjnej pracy do akcji koniecznego wyłączania części odbiorców
Polska w tej dziedzinie jest 100% Państwem Teoretycznym.
Takie analizy mają ogromne znaczenie strategiczne dla kraju.
Rosja w czasie obecnej wojny w Ukrainie atakuje jej infrastrukturę energetyczną i konieczna jest praca w konfiguracjach awaryjnych.
Pierwsze dni wojny potrafią przesądzić o losie wojny. Dostawy energii elektrycznej ( tylko z małymi przerwami ) są bardzo ważne dla wysokiego morale żołnierzy i obywateli.
To oczywisty dowód że państwo sprawnie działa i skutecznie się bronimy. Panika przekreśla skuteczną obronę.
Sprawy te podjęto w „Fault Tolerant” i wiele się nie zmieniło w ciągu dekad.
Iloraz kosztu wszystkich elektrowni w kraju do kosztu systemu przesyłowego NN i dystrybucyjnego WN ( w Polsce 115 KVac ) wynosi od 6 do 13 razy. Zatem wartość systemu przesyłowego może być duża ale znacznie mniejsza od kosztu systemu generacji. System przesyłowy ma niskie koszty eksploatacji a elektrownie cieplnie zużywają ogrom paliw. Paliwo jądrowe też nie jest darmowe. Zatem koszt przesyłu energii elektrycznej jest małym ułamkiem kosztu generacji energii.
Linia energetyczna jest linią długą. Pola elektromagnetyczne i zjawiska w linii długiej zdecydowanie są nieintuicyjne ! Z wyliczaniami przepływu mocy w sieciach i napięciami będziemy zdziwieni ale to szybko minie gdy upewnimy się że są poprawne.
W przybliżeniu optymalne ekonomicznie napięcie każdej linii energetycznej jest proporcjonalne do jej długości. W Polsce linia 400 KV nie powinna być dłuższa niż 300 km. Proporcjonalnie linia 220 KV – 165 km, linia 115 KV – ca 86 km a linia 20 kV -15 km.
Na wykresie pokazano moduł napięcia ( jest jeszcze nie pokazana faza ! ) na końcu bezstratnej linii przesyłowej długości 300 km zasilonej na początku napięciem 1 o częstotliwości 50 Hz. Dla linii przesyłowych X/R > 5 i rezystancja linii ma małe znaczenie dla problemu stabilizacji napięcia i stabilności dynamicznej systemu.
Ta nieobciążona linia podnosi na końcu napięcie do circa 1.05. Faktycznie nieobciążona linia NN zasilona napięciem 400 KV ma na końcu napięcie 420 KV. ( Oczywiście nieobciążone linie o mniejszej długości mniej podniosą napięcie i problem stwarzają faktycznie z racji długości tylko linie 400 KV ale generacje mocy biernej przez linie zawsze bierze się pod uwagę ) Rezystancja odbiornika mocy 1 odpowiada impedancji falowej linii. Przy takim obciążeniu napięcie na wyjściu linii wynosi 1 co wydaje się nonsensem gdy zapomnimy o przesunięciu fazy napięć !
Owszem moduł napięcia na końcu wynosi 1 ale różnica wartości chwilowej napięć na wejściu i wyjściu jest całkiem spora.
W systemie przesyłowym moduły napięć różnią się niewiele ale kąty napięć różnią się dużo i to one dyktuje o przepływach mocy !
Przy obciążeniu o indukcyjnym współczynniku mocy cos phi napięcie na końcu linii monotonicznie maleje wraz z rosnącym obciążeniem. Ale z pojemnościowym współczynnikiem mocy napięcie początkowo rośnie i dopiero spada.
Z indukcyjnym współczynnikiem mocy cos phi = 0.95 napięcie końcowe 1 linia ma przy obciążeniu ca 0.4 a przy pojemnościowym 0.95 aż 2.1.
Z indukcyjnym cos phi = 0.95 przy znacznym spadku napięcia można z linii pobrać do ca 1.25 mocy a przy pojemnościowym przy niewielkim spadku napięcia aż 2.3 mocy.
Linia nieobciążona generuje moc bierną pojemnościową. Przy obciążeniu rezystancyjnym 1 nie generuje żadnej mocy biernej a przy mocniejszym obciążeniu pobiera ona moc bierna.
Staje się jasny algorytm utrzymania Najwyższego Napięcia w systemie przesyłowym.
-Przy małych obciążeniach na „końcach” linii NN podnoszącej napięcie załącza się potężne dławiki aby napięcie zmniejszyć. Dławik taki wygląda jak wielki transformator energetyczny i kosztuje jeszcze więcej dlatego że rdzeń ma wiele równomiernych szczelin aby dławik miał małe straty mocy. Miejsce w systemie dla nich musi być optymalnie wybrane. Do kosztu dławika dochodzi m.in. koszt wyłącznika i odłącznika. Identycznie jak z każdym transformatorem prąd załączania ( efekt nasycenia rdzenia ) dławika jest duży i stąd operuje się nim raz dziennie.
Dławik jest włączony na noc i tylko czasem na dni weekendów.
-Gdy obciążenie stopniowo rośnie dławiki wyłączamy. Najlepiej gdy dławik jest „regulowany” przełącznikiem pod obciążeniem i koszt tego nie jest znaczny.
Minimum strat mocy i mniejsze zmiany napięć w sieciach SN i nn w systemie otrzymamy odrobinę zmniejszając napięcie NN dla mniejszego obciążenia systemu.
-Przy dalszym wzroście obciążenia systemu załączamy „kondensatory” co niestety wywołuje krótki ale bardzo silny impuls zakłócający. Stąd operacja tylko raz dziennie. Same ( bez szeregowych dławików ) kondensatory można jednak załączyć tylko gdy napięcie ma małe zniekształcenia harmoniczne, które to kondensator szkodliwie podniesie. Gdy napięcie jest trochę zniekształcone w szereg z kondensatorami daje się dławik dający szeregowy rezonans przy częstotliwości 180-200 Hz. Dławik taki sporo kosztuje i rozprasza moc. Tak więc za zniekształcenia prądu wprowadzone do systemu energetycznego przez odbiorców płaci się m.in w sieci przesyłowej.
Kondensatory kompensacji mocy biernej nawet z szeregowymi dławikami mogą spowodować bardzo szkodliwe podniesienie harmonicznych !
http://matusiakj.blogspot.com/2019/11/pe-filtry-puapki-harmonicznych-archiwum.html
Utrzymanie wysokiego współczynnika mocy pozwala przesyłać linią NN tylko energie czynną czyli maksymalnie wykorzystać linie co jest bardzo korzystne.
-W regulacji NN mogą brać udział regulatory AVR generatorów elektrowni
Gdy sieć krajowa jest połączona z systemem innych krajów trzeba zachować ostrożność z regulacją napięcia NN aby niepotrzebnie nie spowodować granicznych przepływów mocy biernych.
Niechciane szkodliwe przepływy mocy P między państwami usuwa się specjalnymi transformatorami zmieniającymi kąt napięć między systemami. Są one drogie.
Przy pracy linii z indukcyjnym współczynnikiem mocy obciążenia jej napięcie na końcu mocno się zmienia. Stabilizacje napięcia może dać transformator z przekładnią zmienianą pod obciążeniem.
Ale im mniejszy jest indukcyjny współczynnik mocy tym mniej mocy można z linii bezpiecznie wycisnąć !
Symulacje wskazuję że stosowanie w systemach NN regulowanych transformatorów istotnie w sytuacjach kryzysowych podnosi ryzyko upadku systemu ! „Nie da się wycisnąć krwi z cebuli”
System energetyczny może się załamać zarówno z powodu braku w nim mocy biernej Q ( spadek napięć ) jak i czynnej P ( spadek częstotliwości ). Zauważmy że przy stałym obciążeniu spadek napięcia na obciążonej linii NN powoduje że pobiera ona jeszcze więcej mocy biernej.
Jedynym ratunkiem przy braku generacji mocy P i/lub Q jest szybkie, optymalne odłączenie części odbiorców.
Mocy biernej Q systemowi energetycznemu dostarczają generatory, pojemności linii, pojemności kabli i pojemności kondensatorów podnoszących współczynniki mocy.
Moc bierną konsumują indukcyjności rozproszenia transformatorów ( mniej indukcyjności magnesowani dlatego że żelazo rdzenia jest obecnie wysokiej jakości ), indukcyjności linii i konsumenci.
Generacja mocy biernej przez generator synchroniczny ma swój koszt a poza tym może ograniczyć generacje mocy czynnej. W sytuacji gdy w systemie energetycznym mocniej brakuje mocy Q niż P można więcej generować mocy Q godząc się na spadek generacji mocy P.
Pojemność jednego z typów napowietrznej linii 400 KV generuje ( 50 Hz ) nominalną moc 0.55 MVAr na kilometr długości linii.
Natomiast ogromna ( zdecydowanie za duża ) jest generacja mocy biernej przez kable NN.
Potężna linia napowietrzna NN wprowadzająca energie do wielkiej, bogatej metropolii blokuje grunt wartości miliardów dolarów. Stąd energie wprowadza się linią kablową NN ułożoną w tunelu podobnych do tunelu Metra ( mniejszej średnicy ) a co kilka kilometrów jest na niej potężny dławik NN kompensujący moc bierną linii. Końcowa stacja transformatorowa NN/WN jest też podziemna.
Moc bierną mogą generować / konsumować oraz usuwać harmoniczne inwertery PWM dołączone wyjściem z filtrem LC do sieci AC. Algorytm sterujący klucze PWM dba aby bilans mocy czynnej z kondensatorem elektrolitycznym stałego napięcia zasilającego inverter był zerowy czyli aby napięcie w obwodzie DC pozostawało stałe. Mankamentem tego rozwiązania są znaczne straty mocy i wysoki koszt. Nadzieje stwarzają klucze mocy SiC ale niestety koszt dławików do filtru LC usuwającego intermodulacje PWM jest nadal wysoki.
Duże zakłady przemysłowe pobierają energie z sieci dystrybucyjnej 115 KV i 15/20 kV natomiast ogromna większość odbiorców pobiera energie z sieci najniższych napięć nn.
NN obniżane jest transformatorami w stacjach elektroenergetycznych do dystrybucyjnego napięcia WN 115 KV i podane liniami WN do Głównych Punktów Zasilania GPZ w którym transformator (często regulacyjny ) WN/SN obniża napięcie do poziomu SN 15/20 KV. Regulacje napięcia SN w GPZ transformatorem regulacyjnym jest gorsza niż drogą regulacji mocy biernej. GPZ zasila kilka do kilkudziesięciu linii napowietrznych i kablowych SN. Podane do linii SN napięcie powinno trochę wzrastać wraz z obciążeniem aby średnio u odbiorców nn napięcie było jak najbardziej stabilne.
W końcu transformatory SN/nn są nieregulowane ale mogą mieć odczepy do użycia ( w czasie montażu ) gdy napięcie SN jest trwale obniżone na końcu (za) długiej linii SN
Dopuszczalne odchylenia europejskiego niskiego napięcia nn sieciowego 230 V wynoszą +-10%, czyli od 207 do 253V dla 95% średnich wartości 10-minutowych okresów ze zbioru tygodniowego, co oznacza, że w ciągu tygodnia 5% średnich wartości 10-minutowych może wykraczać poza powyższy zakres.
Iloraz mocy odbieranych przez rezystor przy napięciach 1.1 i 0.9 ( w stosunku do nominalnego ) wynosi 1.494 czyli blisko 1.5 !
Odbiorniki elektroniczne są mało wrażliwe na poziom zasilającego napięcia sieciowego ale gdy wiele z nich jest szeroko - zakresowych ( pracują z pełną mocą już od napięcia 90 V !) mogą doprowadzić po obniżeniu napięcia sieci do załamania.
W sieciach Smart można użyć średniego napięcia stałego. Wyłącznikiem są w tym wypadku największe wysokonapięciowe tranzystory IGBT i wyłączalne tyrystory IGCT. Przepięcia muszą być absorbowane przez warystory najlepiej w układzie odgromnika zaworowego. Oczywiście dla bezpieczeństwa trzeba dać mechaniczny odłącznik operujący rzecz jasna bezprądowo.
Dopracowane dekadami współczesne systemy przesyłu i dystrybucji energii są niezawodne.
Transformatory są od 4 dekad pewnie chronione przed przepięciami od pioruna warystorami. Ponieważ rzadko bywają potężnej mocy pioruny mogą one spowodować uszkodzenie warystora który się wtedy nagrzewa przy normalnym napięciu pracy. Dlatego okresowo w nocy termokamerą rejestruje się temperaturę warystorów. Na średniej wielkości kraj wystarczy jedna termokamera a przecież obecnie są one już tanie.
Nad przewodami UVW linii NN/WN biegnie linia odgromowa tak aby piorun bardzo, bardzo rzadko uderzył w przewody UVW. Jeśli tylko linia odgromowa ma dobre uziemienie zaatakowanie jej piorunem nie powoduje przeskoku na izolatorach przewodów UVW. Dobrze utrzymany system NN-WN jest więc odporny na pioruny. Z rzadka potworny „grom z jasnego nieba” o makabrycznej energii spowoduje przebicie i zapalenie luku na izolatorze / izolatorach przewodu / przewodów i fazę / linie trzeba na czas dejonizacji przestrzeni połukowej na 0.3-0.5 sekundy wyłączyć.
W cywilizowanym świecie linie SN są kablowe i Polska jest tu wyjątkowo opóźniona. Izolowany przewód do napowietrznej linii SN jest niewiele droższy od przewodu gołego a przy kołysaniu przewodów silnym wiatrem gdy dojdzie do dotknięcia izolowanych przewodów nie ma zwarcia.
Zwarcia jakie występują w domowej sieci nn są pochodną stanu technicznego sieci i urządzeń oraz przeciążeń. Tak samo jest we wszystkich sieciach.
Linie i transformatory trzeba chronić przed przeciążeniami. Przegrzana linia za mocno zwisa i jest do kosztownej naprawy. Przegrzewany transformator bardzo szybko traci żywotność. Może do tego doprowadzić nadmierna generacja PV ( transformator SN/nn ) ale także zniekształcenia prądów na co transformatory są wrażliwe.
Przewodnik w kablu WN – NN nie powinien mieć w pracy temperatury wyższej od 90 C ale podczas awarii dopuszczalne jest chwilowe rozgrzanie go do 250 C. Taki incydent skraca żywotność kabla o rok !
Zwarcie zmniejsza żywotność transformatora energetycznego. Stary transformator od razu ulegnie zniszczeniu choć bez zwarcia pracowałby jeszcze latami...
W części krajów świata wymiany izolatorów linii WN i SN prowadzi się pod napięciem co eliminuje przerwę w dostawie energii.
W konwencjonalnym systemie wszelkie elektrownie realizują rozkazy generacji a elektrownie pompowe – szczytowe także rozkaz absorbowania energii - pompowania. Energia jest importowana i eksportowana. PV i wiatraki na razie mają priorytet i mogą oddawać całą swoją generacje.
Wiatraki na morzu pracuje z większą mocą średnia w stosunku do ich mocy maksymalnej co jest bardzo pożądane. Znacznie gorsze są wiatraki lądowe ale wiatraki morskie są znacznie droższe i drogi jest ich bieżący serwis. Wszystko racjonalnie sprowadza się do pieniędzy !
W systemie Smart mają dodatkowo funkcjonować wielkie akumulatory nazwane magazynami energii ( na razie elektrownie pompowo – szczytowe są bezkonkurencyjne i niezastąpione ) oraz „małe” akumulatory jako magazyny u odbiorców jak omówiony już Power Wall firmy Tesla. Akumulatory samochodów osobowych zwykle są ładowane ale gdy energia jest chwilowo bardzo droga właściciel może je rozładować sprzedając energie do sieci. Magazynem energii cieplnej ma tez być mieszkanie / dom o dużej stałej czasowej ogrzewane Pompą Ciepła zasilaną energią elektryczną z m.in. wiatraków.
Gdy energia jest tania aktywne ma być elektroliza wytwarzająca wodór dla przemysłu i samochodów.
Energia z PV winna być przede wszystkim zużywana lokalnie.
Z tego wszystkiego najważniejsze jest sterowanie zużyciem - popytem poprzez aktualną cenę energii. Na razie tylko raczkują wdrożenia do użytku tej idei.
Przemysł energożerny jest od dekad sterowany bieżącą ceną energii i drogiego prądu w szczycie poboru nigdy nie pobiera. Zachowanie to będą musieli skopiować też mniejsi odbiorcy ale systemy, liczniki i ludzie muszą znać bieżąca cenę.
Transakcje kupna - sprzedaży i inne odbywają się na rynku, który to jest skomplikowanym tworem historycznym zmiennym w czasie i przestrzeni. De facto elementem pasożytniczym są destabilizujący rynek spekulanci.
Wielki Kryzys, potężny światowy kryzys roku 2008 i obecne ( 2022 ) szaleństwa z cenami energii w Europie to efekt wielkiej spekulacji !
W 2008 roku szalone ceny ropy naftowej napompowali spekulanci.
Lobby przemysłu finansjeryzacji jest potężne i ma duży wpływ na ustawodawstwo !
Przed wielkim kryzysem duża część licznych inwestorów stosowała mechanizm wysokiej dźwigni finansowej i kupowała akcje na zaciągnięty kredyt. Krach na giełdzie spowodował masowe bankructwa i zanik akcji kredytowej przez banki. To z kolei spowodowało drastyczny spadek konsumpcji....
Ale ustawodawstwo USA zapobiegające takim ekscesom uchylono w latach '90 pod naciskiem sektora finansowego.
Różna energetyka zyskuje na znaczeniu i zajmiemy się nią jeszcze nie raz.
Sensownym, stabilnym, wydajnym, adaptacyjnym ( czyli uczącym się ) algorytmem ustalania bieżącej ceny energii elektrycznej przy mocno zmiennej generacji i konsumpcji energii zajmiemy się dalej. Sprawa nie jest trywialna.
Natomiast na osobnym rynku wszelkie podmioty a w tym spekulanci mogą kupować i sprzedawać co tylko sobie wymyślą !
Sprawdzenie.
1.Jednostronnie zasilana linia AC jest równomiernie obciążona na całej długości 1. W jakiej odległości od zasilania ma być umieszczony kondensator kompensujący całą pobieraną moc bierną dla jak najmniejszych strat mocy w linii ?
Dla uproszczenia założyć że napięcie na całej długości linii jest takie samo.
2.W rozdziale 8 „Load flow studies” wspomnianej legendarnej książki pokazano rozwiązanie przepływu mocy w takiej sieci. Szczegóły w fizycznie dostępnej książce.
Zaimplementowana w C metoda Gaussa – Seidela i Newtona Raphsona działają poprawnie. Program jest obszernie skomentowany. Otrzymujemy rezultat jak w książce.
Liczbę iteracji ustawiono odpowiednio na 13 i 7. Metoda GS jest dla dużych zadań bardzo wolno zbieżna i tym wolniej im więcej jest węzłów. Gdy wczytamy pliki z potężnymi sieciami 120 i 300 (300 to już kontynent ) węzłowymi to po 13 iteracjach błędy GS są absurdalnie wielkie.
-Stwórz i wypróbuj wiarygodne, nieskomplikowane i szybkie kryterium zakończenia obliczeń dla GS i NR aby wszystkie moce ( także strat w liniach ) zbilansowały się z dokładnością względną lepszą od Err.
Cwiczenie.
1.Trójfazowy ( 3 kondensatory połączone są trwale w trójkąt w hermetycznej obudowie walcowej rozmiaru 121 x 164 mm, z trzy-kontaktowym konektorem trójfazowym ) kondensator do kompensacji współczynnika mocy na napięcie sieci 400 Vac ma podana moc 15 KVar czyli pojemność każdego kondensatora wynosi prawie 100 uF a nominalny płynący każdą fazą prąd bierny wynosi 21.7 A. Dla częstotliwości 50 Hz dobroć kondensatora wynosi >4000 razy czyli na każdy KVar przypada <0.25W mocy strat.
Gdy dla bezpieczeństwa dodamy jednak rozładowujące kondensatory 2 lub 3 rezystory moc strat wzrośnie !
Produkowane są też podobne kondensatory na napięcie 440 Vac gdy w szereg z kondensatorem umieszczamy dla bezpieczeństwa dławik ( z reguły „7%”, on podnosi napięcie na kondensatorze ! ) oraz na napięcie 525V.
Znacznie droższy od kondensatora jest dla niego szeregowy trójfazowy dławik „7%” dający z nim bezpieczny rezonans przy częstotliwości 189 Hz. Producent niestety nie podał strat mocy w dławiku ale są one znacznie większe niż w kondensatorze.
Dodatkowo w szereg mogą być załączone w każdej fazie duże termistory NTC ( Fi=21 mm, po dwa równolegle, są gorące w pracy i stąd ich specjalne mocowanie ) jakie masowo używane są do ograniczania prądu ładowania prostowników pojemnościowych. Ich mankamentem są straty mocy.
Kondensator sam lub z szeregowym dławikiem ( i NTC ) jest załączany do sieci trójfazowej w zerze napięć ( napięcia na kluczu a nie napięcie sieci !) triakami ( mają on dobre parametry dynamiczne, są sterowane selekcjonowanymi optotriaczkami MOC3082 ) i/lub równoległym do nich specjalnym dedykowanym do tego celu stycznikiem. Radiatory triaków są za małe do długiej pracy i ewentualnie należy załączyć odciążający równoległy stycznik. W systemie z operującymi triakami / tyrystorami bocznikowanymi stycznikami styki są bardzo trwałe.
W fazach UVW umieszczono miniaturowe przekładniki prądowe a sygnały z nich podano do wielofunkcyjnego przyrządu ND08 ( także napięcia, można go połączyć z komputerem przez RS485, jest odpowiedni program ale nie ma tu potrzeby ), oscyloskopu DSO i na wejście L i R ( tylko fazy U i V ) karty dźwiękowej w komputerze PC.
-Wyjaśnij dlaczego impulsowy przejściowy przebieg prądu po załączeniu kondensatora ( samego lub z dławikiem 7% ) do sieci stycznikiem jest aż tak oscylacyjnie paskudny. „Goły” kondensator wolno włączyć stycznikiem tylko jeden raz. Jak bardzo takie zakłócenie jest szkodliwe i dlaczego.
Czy załączanie samych kondensatorów powinno być zabronione.
-Wyjaśnij stosowaną w CB idee pracy pary styków opalanego i roboczego
-Jaka ma być oporność w każdej fazie ( oczywiście zimnych, ostygniętych NTC co ogranicza dyspozycyjność operacji ) aby impuls ładowania kondensatorów był bez L prawie aperiodyczny i nieszkodliwy. Podaj algorytm postępowania do wyliczenia tej oporności.
-Termistory NTC ( dane i koszt w katalogach, są tanie ) są w pracy gorące i traci się w nich moc, która ma swoją cenę. Wyceń szkodę powodowaną załączaniem „gołego” kondensatora stycznikiem i oceń czy dodanie NTC ma sens.
-Przy załączeniu w Zerze triakami impuls prądu jest wielokrotnie mniejszy ale i tak jest ( zupełnie nieszkodliwy ) proces przejściowy. Z czego to wynika. Kiedy ten proces przejściowy jest najsłabszy.
-Jak upewnić się że dławik „7%” nie ulega nasycaniu w czasie pracy ?
-Czy dołączenie tego kondensatora ( samego lub z dławikiem ) do sieci jest dla sieci korzystne czy szkodliwe ?
-Po odłączeniu kondensatora triakami na kondensatorach ( z rezystorami powoli rozładowującymi kondensator ) jest spore napięcie. Dlaczego łącznik triakowy nie daje się czasem od razu załączyć po wyłączeniu ale gdy napięcie na kondensatorze trochę spadnie dochodzi do załączenia.
-Do operacji kondensatorem wystarczą łączniki na dwóch fazach ale użyto trzech łączników. Łącznik może się uszkodzić na dwa sposoby – być zwartym albo rozwartym. Czy dla niezawodności ( zbierz dane z WWW i wspomóż je własną argumentacją ) lepiej jest tu użyć dwóch czy trzech łączników na triakach / tyrystorach?
-Do nieszkodliwej operacji kondensatorem wystarczą ograniczające impuls prądu ładowania termistory NTC na dwóch fazach ale użyto trzech. NTC może się uszkodzić na dwa sposoby – być zwartym albo rozwartym. Czy dla niezawodności ( zbierz dane z WWW..... ) lepiej jest tu użyć dwóch czy trzech NTC ?
-Do powolnego rozładowania kondensatorów wystarczą dwa rezystory ale użyto trzech rezystorów. Rezystor może się uszkodzić. Czy dla niezawodności / bezpieczeństwa ( zbierz dane z WWW.... ) lepiej jest tu użyć dwóch czy trzech rezystorów ?
-Wyjaśnij dlaczego dla dużych kondensatorów straty mocy w szybko je rozładowującej indukcyjności równoległej na typowym rdzeniu „żelaznym” ( czasem jest to zwykły transformatorek i napięcia z jego uzwojenia wtórnego użyto do systemu kontrolnego) są takie małe ?
-Kondensator jest prawie zimny i straty mocy w nim są niewielkie i może nawet mniejsze niż deklarowane. Wyjaśnij dlaczego całkiem dokładny przyrząd ND08 pokazuje bzdurny pobór mocy czynnej P przez ten kondensator ?
-Straty mocy w dławiku trójfazowym „7%” zmierzono robiąc w ustalonym stanie nagrzanym zdjęcie termokamerą i mierząc temperaturę pirometrem a następnie zasilając szeregowo połączone uzwojenia dławika z silnego zasilacza napięcia stałego takim prądem aby uzyskać trochę ( 3C ) wyższą temperaturę uzwojeń. Oczywiście to nie jest to samo bo tylko przy prądzie zmiennym straty mocy występują też w rdzeniu. Mimo tego wynik pomiaru dobrze koresponduje ze znaną opornością cieplna transformatora na takim rdzeniu i karkasie.
Zaproponuj dokładniejszy pomiar.
2.Duże kondensatory energetyczne są pojedyncze a nie trójfazowe. Także napięcia i prądy triaków są niewielkie przy parametrach tyrystorów wielkiej mocy.
Na rysunku (a) pokazano schemat trójfazowego sterownika fazowego na 3 tyrystorach (!) a na rysunku (b) na 3 tyrystorach i 3 diodach. Zakres kątów sterowania jest jednak ograniczony.
Tych sterowników fazowych można też użyć jako łączników. Korzystając z dowolnych narzędzi odpowiedz
-Czy tych układów można użyć do „bezzakłóceniowego” dołączenia do sieci trójfazowej kondensatorów kompensacji mocy biernej ?
3.Do kompensacji mocy biernej stosowane są kondensatory ale też dławiki dużej/wielkiej mocy. Załączenie obu jest kłopotliwe ! Gdy chcemy nimi często operować trzeba je włączać „bezzakłóceniowo”.
A.Z powodu nasycenia rdzenia prądy przejściowe włączenia transformatorów sieciowych ( Rozdział 15 „Prąd włączania”. Transformatory, E.Jezierski, WNT 1983 ) bywają bardzo duże. Dla transformatora jednofazowego przebieg prąd załączenia zależy od resztkowego namagnesowania rdzenia i kąta załączenia napięcia sieciowego. Resztkowe namagnesowanie rdzenia zależy od kąta napięcia wyłączenia transformatora i jego obciążenia. Często równolegle z uzwojeniem pierwotnym transformatora ( zwłaszcza z prostownikiem pojemnościowym ) włączony jest odpowiedni kondensator ( rodzaju X ) i po wyłączeniu pojawiają się zanikające oscylacje napięcia co w efekcie daje małe resztkowe nasycenie rdzenia. Z upływem czasu to namagnesowanie dodatkowo maleje.
Proces załączania transformatora / dławika można symulować programem i fizycznie obserwować oscyloskopem. Mniejszy jest prąd włączenia uzwojenia zewnętrznego transformatora słabiej sprzężonego z rdzeniem. Przy przypadkowym kącie załączenia prąd włączenia równie dobrze może > dziesięć razy przekraczać prąd znamionowy jak i od razu może być stan ustalony z małym prądem. Z zerowym namagnesowaniem resztkowym stan ustalony uzyskujemy z kątem załączenia 90 deg.
Napięcia z uzwojenia wtórnego załączonego wyłącznikiem sieciowym transformatora sieciowego 250 VA oraz sygnał prądu z przekładnika prądowego podano do oscyloskopu DSO. Nasycenie rdzenia przy włączeniu jest dobrze widoczne oscyloskopem zarówno w prądzie jak i w napięciu .
Prąd włączenia transformatora / dławika można oczywiście ograniczyć stosując szeregowy NTC mocy.
Do uzwojenia pierwotnego transformatora można dołączyć kondensatory rodzaju X o wartości 47, 100, 220, 470, 1000 nF.
-Który kondensator daje najmniejsze resztkowe namagnesowanie rdzenia ?
-W jakim stosunku powinien być prąd jałowy (dowolnego ) transformatora do prądu tego kondensatora i dlaczego ?
B.Trójfazowy trójkolumnowy dławik ( użyty jest normalnie w AVR średniego generatora synchronicznego, uzwojone kolumny mają niewidoczne szczeliny, połączony jest w gwiazdę ) zasilony zwykłym napięciem trójfazowym nn 400V pobiera z każdej fazy sieci UVW prąd 2.17 A czyli 1.5 KVAr. Dławiki mają dużo mniejsza dobroć Q niż kondensatory. W stanie ustalonym pracy dławik jest gorący a więc straty mocy w nim są niestety spore. Przy jednoczesnym załączeniu napięcia trzech faz sieci zawsze jest duży prąd włączenia ale różny w fazach.
-Posługując się programem symulacyjnym stwórz algorytm ( jeśli to jest wykonalne ) niejednoczesnego załączenia faz aby z rozmagnesowanym rdzeniem od razu był stan ustalony dławika lub by proces przejściowy był najłagodniejszy.
W odpowiednim momencie / kącie są załączane dwie fazy ( bowiem inaczej nie popłynie prąd bowiem przewodu N nie ma ) a trzecia faza z opóźnieniem.
-W jakim stosunku powinien być prąd jałowy (dowolnego ) transformatora do prądu tego kondensatora i dlaczego ?
OdpowiedzUsuńOdpowiedź: 40-50% Przy takim stosunku rdzeń po gasnących oscylacjach jest rozmagnesowany przy każdym kącie wyłączenia.
To wyjaśnienie Wielkich Idei Niemiec które na Europę ściągają nieszczęścia jest doskonałe. Trzeba jednak dodać że przełamanie siły City i USA było niemożliwe. Teraz Rosja dostaje lanie.
OdpowiedzUsuń