sobota, 23 kwietnia 2022

Mieszkanie i ogrzewanie: Optymalizacja a AI

 Mieszkanie i ogrzewanie: Optymalizacja a AI

 Szybko rosnie wydajnosc procesorow komputerow i pojemnosc ich pamieci. Rownolegle doskonalone sa algorytmy. Zadania kiedys niewykonywalne staja sie w koncu wykonywalne w rozsadnym czasie.
Nie znaczy to jednak ze programy potrafia juz wiele mocno uzytecznego robic.

Rzeczywistosc jest o wiele bardziej zlozona niz jakikolwiek jej model i jej interpretacja. W badaniach i poszukiwaniach  musimy miec gotowosc je porzucic i szukac czegos bardziej adekwatnego do swiata.
Tacyt pisał: Omne ignotum pro magnifico - wszystko co nieznane wydaje sie wspaniale.

Mozna programami symulowac konflikty i prowadzic  gry wojenne. Jest jednak wiele czynnikow ktore waza w wojnie i trudno przewidziec na 100% jej rezultat.  Wojne jest latwo wszczac ale trudno zakonczyc.
Niemcy w celu racjonalizacji produkcji zbrojeniowej wprowadzili Index Sily Bojowej dla swojego uzbrojenia. Alianci optymalizowali trasy nalotow i cele biorac pod uwage rozmieszczenie i skutecznosc obrony przeciwlotniczej wroga oraz wartosc niszczonych celow bez rozruznienia czy chodzi o mienie militarne czy cywilne oraz zolnierzy i cywilow.

W dobrze – optymalnie  zarzadzanej gospodarce mozna dlugotrwale osiagac wzrost gospodarczy na poziomie 3-5%. Tymczasem wszelcy Populisci chciwi wladzy i korzysci z niej, skladaja obietnice natychmiastowej poprawy i z reguly destabilizujac system prowadza do kryzysu.
Dobrobyt, porzadek i pokoj nie sa dane raz na zawsze. Radykalne propozycje naprawy nalezy traktowac z dystansem, pamietajac o zawartym w nich poteznym destrukcyjnym potencjale.
Polska chcac sie rozwijac musi sie modernizowac. Kraje zapoznione moga korzystac z renty zapoznienia. Trzeba inwestowac w to co rokuje nadzieje i nie topic pieniedzy w branze schylkowe.  Jednak "bez pracy nie ma kolaczy"

Dla rozwoju mikroelektroniki niezwykle wazne sa programy dokonujace rozkladu i polaczen elementow na powierzchni chipow. Wydajniejsze procesory z ulepszonymi programami moga projektowac jeszcze szybsze procesory. Zatem jest tu petla silnego dodatniego sprzezenia zwrotnego. Kto zlapie wiatr w zagle bedzie plynal po horyzont.
W tej chwili zdecydowanie najlepiej rokuje technologia CMOS.
Ale najwazniejsza inteligenta czesc pracy w projekcie nadal nalezy do czlowieka.  Idee Carry Look Ahead czyli CLA w technologii CMOS realizuje sie w postaci "Manchester carry chain" lub w postaci specyficznej logiki jak czyni to Hewlett Packard.
Lepszy, bardziej regularny rozklad elementow zmodyfikowanej idei CLA na powierzchni chipa daja jednak topologie Kogge - Stone i Brent - Kung.
W dziedzinie kombinatorycznych ukladow mnozacych ( czas operacji 1-2 cykle zegarowe ) takze nie powiedziano ostatniego slowa. Tu nadal dziala ludzka inteligencja. Takie szybkie uklady mnozace stosowane sa juz w procesorach DSP i niedlugo kazdy procesor bedzie je mial.  

Empiryczne prawo Moore'a  glosi ze ekonomicznie optymalna liczba tranzystorow w ukladzie scalonym zwieksza sie w czasie wykladniczo. Rosnaca ilosc monolitycznych tranzystorow i ich rosnaca szybkosc przeklada sie na wykladniczy wzrost szybkosci procesorow.
Koncern ITT od 1982 roku przetwarza telewizyjne sygnaly cyfrowo w komercyjnym procesorze nieprogramowalnym. Sygnal telewizyjny PAL jest probkowany cztery razy szybciej niz podnosna koloru PAL czy z czestotliwoscia 4.43.. x 4 = 17.72 MHz. Na sekunde wykonanych jest rownolegle ponad 1 mld operacji. Daje to wyobrazenie o szybkosci nadchodzacych procesorow.
Natomiast TI i NEC produkuja szybkie komercyjne  procesory DSP. W stosunku do konwencjonalnego procesora dodatkowo szybko wykonuja one polaczona operacje mnozenia i sumowania co jest uzyteczne w realizacji filtrow FIR i IIR oraz algorytmu FFT i wielu innych algorytmach.  
Obecnie funkcjonuje paradygmat szeregowego ( kolejne instrukcje do wykonania ) procesora i szeregowo wykonywanego programu ale w celach specjalistycznych stosuje sie specjalizowane macierze rownoleglych procesorow. Jednak wydajnych algorytmow do rownoleglej realizacji jest bardzo malo a wynalezienie nowosci jest strasznie trudne.

 Gutenberg standardowa czcionka w istocie wprowadzil standaryzacje komunikacji. Wymiana mysli jest kamienien fundamentu na ktorym posadowiony jest wszelki postep. Teraz w role ksiazek z plikami procedur wchodza elestyczne dyski.

 Zalozone w 1947 roku w USA naukowo - edukacyjne stowarzyszenie "The Association for Computing Machinery" (ACM) wydaje szereg czasopism, nalezacych do najlepszych w swiecie lub wprost najlepszych. ACM jest obecnie najwiekszym stowarzyszeniem miedzynarodowym w dziedzinie algorytmow i komputerow.  
W "Communications of the ACM" publikowane algorytmy numerowano. W 1970 roku ich numery przekroczyly 400. Odkrywane Algorytmy publikowane sa takze w czasopismach narodowych. Rzadko algorytmy publikowane sa w konkretnym jezyku programowania  a norma jest podanie go w pseudokodzie. Przelozenie pseudokodu na tekst dla kompilatora konkretnego jezyka moze byc trywialne ale czasem jest bardzo trudne.
"Algorytmy optymalizacji w jezyku Algol",J.Kucharczyl, M.Scislo, PWN 1977,  zawieraja omowienia algorytmow ze wskazaniem zrodel skad wzieto algorytm lub od razu pseudokod i wydruki przetestowanych tekstow procedur w Algolu  a konkretnie w Algolu 1204 dla maszyn Odra 1204. Pracownicy Uniwersytetu Wroclawskiego wykonali naprawde dobra prace. Szkoda tylko ze w ksiazce wydanej w 1977 roku ostatnia wskazana publikacja jest z 1973 roku a wiekszosc jest znacznie starsza.  Ksiazka jest obecnie przestarzala i mocno niepelna.
Dziedzina "Badan Operacyjnych" narodzila sie w USA i Wielkiej Brytanii w czasie II Wojny Swiatowej. Tytul ksiazki jest polowicznie bledny bowiem algorytmy dotycza Badan Operacyjnych.  
Autor otrzymal na dysku w formacie IBM PC czesc tekstow programow z ksiazki ale obecnie mikrokomputery maja tylko kompilatory Pascala, C i Fortranu.
Przelozenie testu Algolu na pokrewne Pascal i C nie jest trywialane. W pierwszym w ksiazce algorytmie zrewidowanej metody Simplex "revsimplex" jest na przyklad taka instrukcja
"for i:=1 step 1 until k, l+1 step 1 until q do"
Uzywane sa tam w procedurach  instrukcje "go to " ale tylko w sensowny sposob. Wydaje sie ze instrukcja "go to " powinna byc eliminowana.
Do "przelozenia" Algolu na Pascal lub C trzeba w edytorze rutynowo uzyc wyszukiwania i podstawienia ale inteligentnej pracy recznej nie jest wcale malo.
Takze przelozenie tekstu Fortranu na C i Pascal nie jest trywilne.  Autor podal przyporzadkowanie instrukcji strukturalnych w C i Pascalu do FORTRAN-oskich instrukcji jak przykladowo  IF(TEST) 35,35,32 i innych. Niestety sa w publikowanych programach rzadkie przypadki gdzie nie da sie do instrukcji Fortranu przypisac ladnych instrukcji strukturalnych C i Pascala.  
Na cale szczescie dla procedury revsimplex podano w ksiazce  dane testowe ( z malym bledem ) i mimo iz kompilator przyjal w koncu tekst  to wynik obliczen jest zly ale po poprawieniu bledu wynik jest dobry. Sprawdzono go tez na danych z innych ksiazek.
Kazdy algorytm powinien byc przetestowany i powinny byc podane dane ktorych uzyto do testu. W przypadku gdy uzyjemy wadliwego albo niepewnego algorytmu do realnych, duzych danych i uzyskamy obiektywnie zle wyniki trudno jest cokolwiek ustalic. Algorytm optymalizacji liniowej Simplex w najgorszym wypadku wymaga liczby operacji rosnacej eksponencjalnie wraz z wymiarem zadania. W praktyce dla roznych zadan tego samego rozmiaru rozrzut czasow obliczen jest bardzo duzy, wrecz zdumiewajacy. Ale sa juz wydajniejsze metody niz Simplex.   
Zwrocmy uwage ze genialni profesorowie D.Knuth  oraz E.Dijkstra w swoich znakomitych ksiazkach podali wyprowadzane algorytmy z bledami i dopiero po czasie zostalo to odkryte. W podanej postaci one nie dzialaly czyli autorzy nie sprawdzili ich dzialania na komputerze ! Nie oni jedni zachowali sie w sposob osmieszajacy.  Gdy wiec jakis algorytm nam zdecydowanie nie dziala to nie ma co rwac wlosow z glowy i nalezy siegnac po inny lub po inne zrodlo.  

W "Matematyczne podstawy projektowania inzynierskiego", R.Stark, R.Nicolls, PWN 1979 jest sporo przykladow. Autor stworzyl prosty program ( w zalaczniku ) ktory tekstowe dane przykladow ( podano skad sa wziete ) z plikow wczytuje lub zada podawania danych z klawiatury  i wola wskazana procedure i wyrzuca wyniki. Uzyto takze przykladow z innych ksiazek.  Zastosowanie optymalizacji liniowej do planowania sieci telekomunikacyjnej moze sie wydac dziwne ale przynosi bardzo dobre rezultaty
"Nie pytaj co Ameryka moze zrobic dla Ciebie ale zapytaj co Ty mozesz dla niej zrobic"  Potrzebna jest wyzsza "edukacja algorytmiczna" aby wiecej osob wiedzialo o istnieniu uzytecznych algorytmow i ich zastsowaniach.
Dla indywidualnego czlowieka osiagniecia edukacyjne decyduja o przyszlych wynagrodzeniach. Wyksztalcenie spoleczenstwa przeklada się na kapital calej populacji

 IBM wydal "System/360 Scientific Subroutine Package" ver 3, 1968. Mozliwe ( prawdopodobnie) ze sa nowsze wersje tego pakietu. Procedury sa podane w Fortranie. Manual objetosci 400 kart zawiera wydruki oraz dokladne omowienia ze wskazaniem zrodel algorytmow. IBM w komputerach uzywal swojego wlasnego osmiobitowego kodowania znakow EBCDIC ( Extended Binary Coded Decimal Interchange Code) powstalego przed ogolnie uzywanym kodowaniem ASCII. Co gorsza to kodowanie EBCDIC wystepowalo i wystepuje w kilku wersjach. Mimo tego ktos sensownie pliki z S360/370 przetransformowal na kod ASCII dla PC.
N.B. Siedmiobitowy kod ASCII z 1963 roku z drukowalnymi 95 znakami, ktory wyewoluowal od dalekopisu i maszyny do pisania  byl dobry z wielu powodow. Cyfry 0..9 sa kolejne, podobnie jak litery male a..z i duze A..Z. Znakomicie to ulatwia sortowanie. Trywialna jest funkcja sprawdzajaca czy slowo ma tylko znaki alfanumeryczne i ewentulanie cyfry czyli jest nazwa co przyspiesza prace kompilatorow. Latwo jest do ASCII zaprojektowac plytke drukowana klawiatury. Korzystnie w stosunku do wczesniejszych rozwiazan  pozmieniano znaki kontrolne. Ale nie ma w ogole europejskich ( i innych )  znakow diakrytycznych.
Na nieuzywanym 8 bicie jest zero lub bit parzystosci. W komputerach zawsze znak jest osmiobitowy ale duzy tekst w pliku mozna sobie na dyskach przechowywac w kodowaniu 7 bitowym bowiem 8 x 7 = 7 x 8 czyli osiem znakow ASCII mozna przechowac na dysku jako siedem bajtow. W komputerkach Spectrum ustawiony osmy bit "znaku"oznaczal ze nie jest to drukowalny znak ale Tag do rozwiniecia. Sa propozycje aby norma miedzynarodowa przyporzadkowac rozne znaki diakrytyczne narodow, greckie litery  i rozne symbole do nieuzywanego przez ASCII zakresu 128-255. USA sa jak najbardziej tym rozwiazaniem nie zainteresowane. Jak zawsze normy i standardy moga hamowac nowe rozwiazania ale z drugiej strony normy i standaryzacja ogromnie przypieszaja rozwoj !

Mozna procedura symbolicznie uzyskac na przyklad trudne pochodne i calki. Sposob kodowania jaki uzyjemy  ma dla komplikacji programu podstawowe znaczenie. Oczywiscie im wiecej jest w bazie danych roznych tozsamosci redukcyjnych do prob przypasowania,  tym wieksza jest szansa ze dostaniemy krotki wynik jakiego oczkujemny a nie wzor na pol kartki.   

Dla procedury z wejsciowa macierza lub macierzami o nieokreslonym z gory  wymiarze Fortran jest niewygodny. Sa one w procedurach deklarowe jako DIMENSION A(1), B(1), C(1)... czyli jako wektory ( tak jest w "System/360 Scientific..." ) co pozwala faktycznie na dowolny wymiar wektorow A, B, C bo argumentem jest tylko poczatkowy adres wektora ... ale w procedurze gdy uzywane sa faktycznie macierze nie mozna poslugiwac sie dwoma indeksami ale tylko jednym co oczywiscie wydluza tekst programu jako ze "na piechote" wyliczany jest adres w wektorze ale z drugiej strony mozna czesto stosowac adresowanie przyrostowe ktore jest znacznie efektywniejsze niz macierzy z dwoma indeksami !  
W Fortranie macierze pamietane sa kolumnami a w pozostalych jezykach wierszami co czasem z punktu widzenia efektywnosci ma spore znaczenie.  

O atrakcyjnosci komputera decyduje jego program a sprzet musi byc wystarczajacy do uzywania programu.
IBM komputery przed era S360 z 1965 roku produkowal maszyny do celow biznesowych ktore koniecznie musialy miec artmetyke dziesiatna ( liczby w RAM byly w kodzie BCD bez transformacji na binarne )  i naukowych, ktore koniecznie musialy miec  zmienny przecinek. Liczba "360" w nazwie oznaczala kat pelny czyli uniwersalnosc nowej rodziny maszyn.
W przetwarzaniu danych ( kwoty pieniedzy, sztuki w magazynie...) uzywane sa dodawanie, odejmowanie i mnozenie a rzadko dzielenie. Przetworzenie tekstu obrazujacego liczbe na kod BCD z dwoma cyframi w bajcie jest trywialne. Takze operacja odwrotna jest bardzo prosta i jednoznaczna. Bankowosc, administracja, ksiegowosc, magazyn...
Komputer do przetwarzania ma miec alfanumeryczny ekran i prosta ale bardzo wydajna drukarke i koniecznie modem lub inne polaczenie z komputerami i ich siecia.       
Komputer do inzynierii i nauki musi miec szybka artmetyke FP, monitor graficzny, ploter, naswietlarke i tym podobne peryferia.   

Badania ze swiata wskazuja ze stosowanie komputerow do przetwarzania danych ( Bankowosc, administracja, ksiegowosc, magazyn... ) nie podnosi efektywnosci pracy a z reguly ja obniza, przynajmniej poczatkowo. Natomiast maszyny CNC i roboty przemyslowe na Zachodzie sa rentowne mimo iz nadal bardzo drogie. Inzynieria i nauka z wlasciwym zastosowaniem komputerow daje pozadane wyniki ekonomiczne ! Bardzo uzyteczne sa automatyzowane laboratoria badawcze i diagnostyczne. Maski do obecnych procesorow opracowuje sie na komputerze z poufnymi algorytmami.
Polska jak i inne kraje rozwijaja sie imitacyjnie "goniac zachod". Z tego powodu kupiono licencje na Odry 1305 i bez licencji produkowane sa komputery RIAD czyli S360/370 aby stosowac je do przetwarzania danych.  Bylo to w istocie dzialanie propagandowe w nurcie "propagandy sukcesu" pokazujacej "komputeryzacje kraju". Programy do przetwarzania danych na obie  te rodziny komputerow sa lekkie, latwe i przyjemne do napisania z uwagi na niezle systemy operacyjne, kompilatory i biblioteki. Przeszkoda w uzytecznym "przetwarzaniu danych" jest stan krajowej telekomunikacji. Rozpowszechnienie komputerow do przetwarzania danych w firmach prowokuje ustawodawcow na Zachodzie do bardzo szkodliwego komplikowania prawa podatkowego i gospodarczego !  

 Ludzie analizujac ( wiedza i doswiadczenie a ostatnio bazy danych i programy - systemy ekspertowe ) posiadane informacje podejmuja decyzje o roznym ciezarze gatunkowym. Proces decyzyjny nie zawsze jednak konczy sie podjeciem decyzji.
Teoria decyzji jest dzialem matematyki. Sposrod zbioru decyzji dopuszczalnych tylko jedna, kilka lub nieskonczonosc jest optymalna z punktu widzenia kryteriow oceny decyzji.
Ceny w gospodarkach rynkowych sa podstawowa informacja dla przedsiebiorcow. Chcac zarobic lub "trzymac sie przy zyciu" moga oni podejmowac decyzje inwestycyjne. Od trafnosci tych decyzji zalezy powodzenie kazdego przedsiewziecia. Im wiecej jest udanych inwestycji czyli dobrze alokowany jest kapital w gospodarce  tym zdrowsza i stabilniejsza  jest gospodarka i tym szybciej sie rozwija.
Zbior decyzji optymalnych moze byc jednak pusty.  

 Realne zadania do optymalizacji i decyzji sa skomplikowane ale mozliwa do odniesienia korzysc jest potezna.
Dotychczas wszystkie protesty spoleczne byly spowodowane w Polsce Ludowej... brakiem miesa ale tez brakiem zywnosci przetworzonej. Czterdziesci lat po wojnie mamy kartki zaopatrzeniowe jak za okupacji. O ile za okupacji mialy one pokrycie w nedznym towarze to teraz nie maja bo kryminalnie wydrukowano ich wiecej niz jest mieszkancow Polski ! Warzywa i owoce dostepne sa nawet w tej samej cenie co w panstwowym subsydiowanym sklepie na targowiskach. Nie ma tez problemow z wyrobami macznymi.
Zielona Rewolucja na Zachodzie definitywnie zakonczyla okres niedojadania i glodow. Ale tamtejsze rolnictwo zmiany przezywalo juz znacznie wczesniej. Roznice w wadajnosci rolnictwa miedzy Polska a zachodem Europy pojawily sie juz w XVI wieku ! Wydajna na przyklad byla czteropolowka z Norfolk czyli optymalny plodozmian. Zielona Rewolucja oznacza w istocie uprzemyslowienie rolnictwa.
W wielkich przestrzennie USA majacych glownie duze farmy pracuje ponizej 2% populacji.  Odwrotnie w malej Holandii bardzo dobrze dziala rolnictwo intensywne z duzym zatrudnieniem. Rolnictwo intensywne to m.in. uprawa owocow ,warzyw i kwiatow pod szklem ale tez chmielu i tytoniu.
Uboj przemyslowy pozwala przemyslowi wykorzystac praktycznie wszystko z ciala zwierzecia. Zapobiega tez zakazeniu konsumentow pasozytami.
Wiekszosc czynnosci przy zbiorach jest juz zmechanizowana. Maszyny zbieraja nawet bawelne a orzechy maszyna strzasa z drzwa na podlozona plachte.     
Plon uprawy roslinnej zalezy od  genetycznej wydajnosci materialu i jego dopasowania do gleby i klimatu. Zalezy od zasobnosci gleby i jej nawozenia naturalnego obornikiem i nawozami sztucznym i a czasem tez dla gleb kwasnych wapnem. Uzyteczne sa tez pestycydy do zwalczania szkodnikow. Konieczny jest dla ograniczenia populacji szkodnikow i zubozania gleby plodozmian. Oczywiscie wszystkie czynnosci musza byc wykonane w terminie recznie, z pomoca konia lub ciagnika i jego maszyn. Uzyteczny jest agronom i weterynarz majacy w arsenale m.in antybiotyki do leczenia zwierzat. Czyli funkcja mozliwej produkcji rolnej nie jest bardzo skomplikowana.
Wojna polega na masowym niszczeniu wszelkiego mienia ( w tym produkcyjnego ) oraz zabijaniu ludzi i pogarszania ich stanu fizycznego i stanu zdrowia. Po kilku miesiacach prowadzenia wojny typowo pojawiaja sie klopoty z zywnoscia. Natomiast we wrzesniu 1939 roku wojsko polskie problemy z zywnoscia mialo juz po paru dniach wojny. Nalozenie niskich cen urzedowych ( przerzucenie kosztow wojny na rolnika ) w sytuacji gdy wszystko zdrozalo czyni produkcje rolna na rynek nieoplacalna i zubaza rolnika. Totez ograniczaja oni produkcje do wylacznie swoich potrzeb. Gospodarstwa rujnuja kontyngenty okupanta oraz rabunki przez bandy podajace sie za partyzantow. Ze wspomnien wojennych wynika ze te bandy byly bardziej uciazliwe niz okupant ! Wsie sa palone przez wycofujace sie wlasne oddzialy i przez okupanta. Mezczyzni sluzac w wojsku nie pracuja w gospodarstwach rolnych.
Po wojnie Polske i inne kraje Europy przed smiercia glodowa ratowaly pomoca USA. Gdy tylko ZSRR skonfliktowal sie z USA ustala pomoc zywnosciowa Ameryki dla radzieckich a w 1946 roku byl w ZSRR smiertelny glod.
Zatem dbajac o czynniki wplywajace na plony mozna je zwiekszyc ale przeciez wiekszosc nie od razu a za rok i po kilku latach. Rolnikowi trzeba placic aby produkcja byla oplacalna bo inaczej on produkujac sobie szkodzi. Przeplywy  w gospodarce obrazuje macierz Input - Outut. Gospodarka ktora jest bardzo skomplikowana. Aby rolnicy mogli kupic nawozy sztuczne trzeba je wyprodukowac czyli wczesniej zbudowac fabryki. Glownym kosztem produkcji dla podstawowych nawozow azotowych sa gaz ziemny i ropa naftowa za ktore trzeba placic w dolarach. Dolarami trzeba placic za importowane ze swiata mineraly fosforowe i potasowe. Czyli trzeba miec jakis eksport !
Rzadzacej partii zalezy na zadowoleniu miast dlatego ze rolnicy nie sa w stanie strajkowac czy skutecznie wystapic przeciw wladzy w wielkiej zorganizowanej grupie. Dlatego ceny miesa w sklepie nie pokrywaja kosztow produkcji i jest ono subsydiowane.
Najwydajniej pasze na mieso przetwarza drob, trzoda chlewna i na koniec krowy. Ale krowy daja tez mleko i ich hodowla jest konieczna. Oczywiscie sa duze genetyczne roznice w wydajnosci zwierzat hodowlanych i popularyzujac lepsze gatunki powiekszymy produkcje. Przecietna maciora ma na Zachodzi Europy prawie o 70% wiecej prosiat w miocie niz w Polsce i efekt tego jest ogromny bo pochlania ona duzo paszy. Pasza ktora zjada kon moze alternatywnie ( inna uprawa i sciezka ) wyzywic 2-4 osoby. Zatem ciagnik rolniczy  ( jest elementem Zielonej Rewolucji ) zastepujacy prace kilku koni pozwala przesunac sile robocza do miast. Ciagnik zuzywa paliwa diesla wyrafinowane z kupowanej za dolary ropy naftowej...
Zatem decydentowi bardzo uzyteczny bylby nawet program syumulacyjny pokazujacy przy okreslonych decyzjach jak bedzie sie w kolejnych latach zwiekszal potencjal produkcyjny rolnictwa ! Bez znajmosci macierzy Input - Outup nie da sie jednak wiele zrobic.
Co nie jest zadnym zaskoczeniem, w rolnictwie takze bardzo wazna jest optymalna alokacja srodkow tak jak w calej gospodarce. Zatem generalnie nie ma osobnego tematu rolnictwa tylko jest zadanie optymalnej alokacji srodkow w gospodarce.  Srodkow  jest zawsze malo i jest dla nich mnostwo alternatywnych zastosowan.
W systemie rynkowym ceny wszystkiego niosa informacje dla podmiotow. W systemie cen biurokratycznych sa one szkodliwym szumem informacyjnym. Przy prawidlowej cenie nawozu rolnik podejmuje decyzje o ilosci uzytych nawozow. Gdy sa one za drogie na tle wartosci plonu w ogole ich nie zastosuje. Wyzywienie okolo 30% swiatowej populacji nie jest juz mozliwe bez uzycia nawozow sztucznych i pestycydow. Uzytecznosc nawozow maleje jednak w funkcji ich uzytej ilosci i stad wynika ich optymalny poziom uzycia.  
Wspolczesna zlozona nauke o optymalnej uprawie roslin zapoczatkowali niemieccy bio - chemicy a szczegolnie Justus von Liebig swoimi publikacjami od 1842 roku. Synteze amoniaku opracowali Niemcy Haber i Bosch.
Oczywiscie w duzym gospodarstwie nawozy sa racjonalniej uzywane i to jest kolejny ich atut.  
W II Rzeszy klopoty z zywnoscia pojawily sie juz trzeciego miesiaca Wielkiej Wojny. Niemcow przed glodem ratowali pomyslowi rolnicy i przedsiebiorcy. Wynalazca Konrad Adenauer w czasie I Wojny pracował nad wynalazkami sluzacymi  wyzywieniu narodu.  To nie przypadek ze Adenauer zostal po II Wojnie kanclerzem Niemiec Zachodnich. To czytelny sygnał dla wszystkich ze trzeba teraz pracowac głowa a nie przemoca i rekami.
Alternatywnym zastosowaniem importowanych weglowodorow w stosunku do produkcji nawozow sztucznych i napedzania traktorow jest naped statkow rybolowczych ale z powodu sankcji za stan wojenny usunieto nas z zasobnych lowisk swiata. Niewiele miesa jada sie w Japonii ale tam protein dotarczaja populacji ryby spozywane w duzych ilosciach.
Do globalnej optymalizacji zawsze potrzebna jest znajomosc macierzy Input – Output.  
 
Czesc z podejmowanych przez wladze decyzji w ogolnosci wydaja sie jak najbardziej poprawne. Budowa fabryk nawozow byla koniecznoscia. Produkcja ciagnikow rolniczych byla koniecznoscia ale one maja sens w gospodarstwach o powierzchni conajmniej 20 hektarow gdy tymczasem przecietne polskie gospodarstwa sa duzo mniejsze co jest mocno nieracjonalne. Dlaczego powierzchnia gospodarstw sie znacznie nie powiekszyla ? Rolnicy rabowani systemem Obowiazkowych Dostaw nie mieli nadwyzek na zakup ziemi i do mechanizacji gospodarstw a co wiecej musieli walczyc przez wlaczeniem ich do znienawidzonych kolchozow czyli spoldzielni produkcyjnych czyli folwarku. Co gorsza uzyskiwane przez panstwo grunty od rolnikow przylaczano do "kolchozow" i rownie nieefektywnych PGR-ow, gdzie kroluje demoralizacja, wodka i bimber.
Czyli koszmarnie bledna byla decyzja o rabowaniu rolnikow Obowiazkowymi Dostawami uniemozliwiajac im unowoczesnie i zwiekszenie produkcji na wiele sposobow. Brak nadwyzek srodkow sprawil ze nie mogli odkupic od innych rolnikow Ziemi co przeciez bylo zamierzone.
System tych wszystkich  naczyn polaczonych jest skomplikowany. Super bledna i zla do szpiku kosci byla decyzja o tym aby industralizacje i odbudowe miast finansowali rolnicy rabowani Obowiazkowymi Dostawami.  Indywidualny rabunek czyli rozboj jest karany wiezieniem a nawet smiercia i panstwo wyrzadzilo jednak przemoca ogrom zla. "Miasta jadly kradziony chleb" Rabowani nie mieli srodkow na inwestowanie i sa tego efekty. Dodatkowy rabunek  przeprowadzono konfiskata przy stalinowskiej wymianie pieniedzy.
Dary od USA nalezalo normalnie sprzedawac i uruchomic rynek z pieniadzem tak jako zrobiono to na Zachodzie Europy.  Natomiast przydzialy darow "po uwazaniu" doprowadzily do zlodziejstwa i przestepczosci.       
Czyli do podejmowania racjonalnych a najlepiej optymalnych  decyzji trzeba danych ( znow macierz I/O ) a proba tworzenia gospodarki ksiezycowej dala oczekiwany efekt czyli 40 lat po wojnie mamy kartki zaopatrzeniowe !  

Wiec trzeba przywrocic oplacalnosc produkcji rolnej i pomagac rolnikom w  powiekszaniu gospodarstw. Tam gdzie jest to wykonalne na przyklad odkrawaniem guntow PGR-om. Trzeba dac rolnikom  kredyty na zakup ziemi. Aby te kredyty nie wyplynely od razu na rynek wzmagajac niedobory i inflacje trzeba ten pieniadz "uwiezic" tak jak to robiono w gospodarce III Rzeszy ale tez w USA ! Realnie jednak sprzedajacy ziemie finalnie dostanie jej wartosc i nie zostanie okradziony.
W Polsce i ZSRR nigdy obywatele nie mogli i nie moga  sie miesa najesc do syta a czasem w ogole najesc czymkolwiek. Rolnictwo ZSRR jest tak niewydajne ze bez wielkiego importu  zboza z USA bylby tam okresowo glod.

Panstwa drukujac papierowy pieniadz maja dochody. Rozwiniete panstwa Europy Zachodniej w okresie powojennym do 1980 roku mialy z tego tytulu dochod rzedu 1% DN. Biedniejsze Grecja, Portugalia i przejsciowo Wlochy osiagaly okolo 2% kosztem sporej inflacji. Panstwa "rozwijajace sie" ( ten termin wprowadza w blad !) osiagaly do 2-3% ale kosztem inflacji, niedoborow i destabilizacji systemu. Co gorsza bronic przed ta inflacja stopniowo ucza sie obywatele i firmy. Zatem korzysc z senioratu czyli renty emisyjnej jest coraz mniejsza a zatem wielkosc tego druku trzeba optymalizowac ! Rozwiniete panstwo o malej inflacji broniac sie przed kryzysem moze troche pieniedzy wydrukowac na wspomozenie gospodarki ale nie moze tego robic za dlugo.    

Czy jest mozliwe stworzenie modelu czlowieka w roznych jego rolach ? Przede wszystkim w roli  konsumenta i pracownika ? Wladze usilowaly aparatem propagandy wprowadzic  zmiany kulturowe w kierunku spozycia innych potraw z mniejsza iloscia miesa. Bezmiesny poniedzialek zle komentowano. Polowicznie przyjela sie tylko proponowania wegierska Lazania. Wysilek propagandowy zdal sie na nic.
Model procesu pozwala na przyklad  syntezowac optymalny regulator liniowy dla niego.
Przygotowanie potrawy miesnej jest latwe i szybkie. Natomiast alternatywny posilek bezmiesny jest pracochlonny. Niestety oferta  gotowych zimnych dan do odgrzania jest znikoma.
Malo pracochlonne jest tylko przygotowanie dan bezmiesnych metoda przemyslowa i polprzemyslowa.  Duza role do odegrania maja stolowki pracownicze oferujace obiady. To jest akurat wynalazek Ameryki i powinien sie rozpowszechnic w Polsce.  
Efektywna zasada jest wyrownywanie dzieciom szans na start. Totez stolowki szkolne dla wszystkich dodatkowo pozytywnie wplywaja na socjalizacje dzieci. Inwestycje w dzieci sa bardzo oplacalne.

Niezaleznie od aktualnego stanu trajektoria optymalna zawsze jest tylko jedna. Prawda jest ze Wielki Kryzys wzmocniony przez zbrodnicza sanacje wies cofnal do epoki gospodarki naturalnej. Ale po prawdzie polska zaczela odstawac od Zachodu juz XVI wieku.
Marnowany jest czas i pieniadz. Reforma cenowa z poczatka 1982 roku byla fatalnie nieudana i wrecz glupia. Zalosny minister Krasinski, przewodniczacy Panstwowej Komisji Cen zostal po operacji szybko odwolany.   

Ogromna zaleta komputerow PC jest ich duza ilosc w swiecie i zjawisko masowego wymieniania sie przez uzytkownikow miekkimi dyskami ( tak jak kiedys ksiazkami !) z programami i plikami danych. Bardziej klopotliwe dla transportu plikow jest wyjecie i wlozenie twardego dysku HD ale przy odrobinie rutyny tez calkiem sprawne.   
Programy CAD ( Computer Aided Design ) pozwalaja rysowac detale i sporzadzac skomplikowane rysunki zlozeniowe z wielu projektowanych detali kompletnej maszyny. Na komputery PC nie ma jeszcze ( to znaczy autor nie ma do niego dostepu i nie slyszal o takim  ) programow CAD majacych wbudowane pelnowartosciowe procedury Metody Elementow Skonczonych ( FEM - Finite Element Methode ) do obliczen wytrzymalosciowych czy innych ale na pewno beda. Takze bazy danych programow CAD sa na razie ubogie. Tylko koncerny maja swoje programy do inzynierii odwrotnej ( Reverse Enginering). Na ile elektroniczna deska kreslarska podnosi wydajnosc pracy technikow i inzynierow jeszcze nie wiadomo. Natomiast procedura CAM generujaca z rysunku detalu plik (G-code) dla maszyn/y CNC jest bardzo uzyteczna. W przypadku projektu plytek drukowanych wynikowy plik w formacie Gerber ( czytelny  ASCII - wektorowy ) steruje naswietlarke i wiertarke sterowana numeryczne a rzadziej tez frezarke.
W jednym w niemieckich czasopism byl wydruk prostego programu CAD dla schematow i plytek PCB w Pascalu ( jest jego plik na komputer PC i Turbo Pascal ). Jego rozbudowa jest latwa i mozna zrobic pelnowartosciowy program CAD do elektroniki.
Struktura danych dla graficznego elementu elektronicznego schematu i plyty drukowanej PCB sklada sie  z  zestawu (wspolrzednych od umownego punktu uchwytu elementu) punktu, lini, trojkata, kwadratu, wielokata, okregu, tekstu. Zawiera informacje o warstwie, grubosci, kolorze, wielkosci. Program bardzo szybko rysuje te symbole.  
Najwazniejsza jest sama idea jadra takiego programu i jego struktur danych a elementow mozemy sobie umiescic w bibliotece ile tylko chcemy. Najlepiej byloby stransformowac potezne biblioteki od drogich komercyjnych programow !  Biblioteka moze miec postac tekstowa i niekoniecznie graficzna postac elementu musi byc definiowana droga graficzna na ekranie. Postac binarna jest jednak znacznie szybsza w uzyciu niz tekstowa.
Graficzna prezentacja na monitorze nie jest obecnie zadnym problemem.  

Program Microcap ( idea Spice ) do symulacji ukladow elektronicznych mimo iz troche ubogi jest calkiem "fajny". "Fajnosc"  ta jest wzmocniona duza  iloscia bardzo ciekawych przykladow ukladow i autor sam ich sporo dodal.
Trafnosc teoretycznej analizy dwojki szerokopasmowej  i wyprowadzonych wzorow uproszczonych programem Microcap mozna szybko sprawdzic. W zalaczeniu sa wyniki symulacji.  Wystarczy narysowac schemat wzmacniacza ( Od strony wejscia i wyjscia ma miec rezystancje falowa 75 Ohm aby nie bylo odbic w liniach. Wymagania sa wiec bardzo surowe )  i dodac do biblioteki tranzystor o parametrach takich jak BFR91 o Ft=5.5 GHz. Uklad taki mozna tez polutowac ale miniaturowe elementy musza byc dla eliminacji indukcyjnosci bardzo gesto upakowane co wymaga umiejetnosci artystycznych. Pamietac nalezy prz tym ze fizycznie uzyty wobulator o pasmie konczacym sie na koncu zakresu V UHF ( 870 MHz ) nie jest zbyt dokladny.  Symulacja i pomiary doskonale potwierdzaja przydatnosc wzorow. Dwojke o pasmie 1 GHz mozna zastosowac w systemie CATV czy oscyloskopie czy innym uzytecznym i drogim zastosowaniu. Trojke szerokopasmowa o pasmie 1.7 GHz mozna uzyc w konwerterze do telewizji satelitarnej. Najlepiej ja wykonac monolitycznie. Symulacja trojki z tranzytorami o Ft=10 GHz potwierdza uzytecznosc uproszczonych wzorow !  
Wtornik emiterowy ( pracuje ze 100% ujemnym napieciowym sprzezeniem zwrotnym ) w przyblizeniu transformuje impedancje obciazenia na swoja impedancje wejsciowa. W przyblizeniu rezystor obciazenia zamienia na wejsciowa pojemnosc a pojemnosc obciazenia zamienia na ujemna (!) opornosc na wejscie i stad wtornik moze dawac przerzuty odpowiedzi a nawet sie wzbudzic. Sprawa z podwojnym wtornikiem emiterowym jest juz trudna a z potrojnym wtornikiem  to juz Himalaje trudnosci. Im szybsze sa  tranzystory tym wieksze problemy.  W potrojnym wtorniku  ( kaskada trzech wtornikow emiterowych ! ) dajemy rownolegla stabilizujaca B-C pojemnosc wejsciowa. Miedzy pierwszym a drugim stopniem dajemy E-B rownolegly dwojnik RC a miedzy drugim a trzecim wtornikiem  rezystor E-B. Symulacje Microcap potwierdzaja to co pokazuje oscyloskop ale proba znalezienia optymalnych  wartosci tych 4 elementow kolejnymi symulacjami dla najlepszego 3 stopniowego wtornika konczy sie totalnym niepowodzeniem. Ale stosujac rozne uproszczenia i oszacowania mozna te 4 elementy analitycznie wyliczyc i Microcap pokazuje jak piekny jest uzyskany rezultat ! Uzykane wartosci kolejnych elementow C+RC+R sa zblizone do tych jakie sa stosowane w potrojnych wtornikach japonskich wzmacniaczach mocy Audio o szokujaco wysokich parametrach.  Jednak Microcap zadnej optymalizacji nie ma. Zdefiniowano duzy tranzystor wyjsciowy i sredni sterujacy a jako wejsciowy uzyto biblioteczny tranzystor. Wtornik, dla prostoty, nie jest komplementarny jak w realnym wzmacniaczu mocy.      

Tam gdzie optymalizacje mozna przeprowadzic analitycznie lub pol analitycznie trzeba to zrobic dlatego ze optymalizacja numeryczna jest koszmarnie nieefektywna. Przyklad.
Parametry elementow LC szerokopasmowego obwodu dopasowujacego ( "drabinki" ) rezystancje wyjsciowa do wejsciowej ( lub impedance na zasadzie absorbcji wartosci L i C przez skorygowane wartosci elementow ukladu dopasowujacego o reaktancje tranzystorow ) o charakterystyce Butterwortha w zakresie dopasowania mozna dosc latwo wyanalizowac ( Tranzistornyje radiopieriedatcziki. W.I. Kaganow, Energia, Moskwa 1980, strony 207-221, tabele 433-435 )  i wyliczyc. Aby nie tworzyc procedury do sprawdzania rezultatu, poprawnosc dla przykladow mozna tez sprawdzic MicroCapem. Uzyjmy metody optymalizacji kierunkow wzajemnie sprzezonych Powella ( dla hiperpowierzchni kwadratowej ekstremum uzyskujemy teoretycznie w skonczonej liczbie krokow. Na podrecznikowych przykladach ta konkretna procedura jest bardzo efektywna  )  w bardzo dobrej implementacji  ( jest tam uzyty caly szereg znakomitych inteligentnych pomyslow ) do znalezenia wartosci 4 elementow LC aby rezystancje 9 dopasowac do rezystancji wyjsciowej 1. Za kazdym krokiem trzeba wyliczyc charakterystyke czestotliwosciowa w kilkudziesieciu punktach czestotliwosci zakresu ! Z niezlym punktem poczatkowym obliczenia trwaja i trwaja ale po 240 krokach jest dobry rezultat. Postep w czasie optymalizacji jest wolny ale jest. Proby uzycia innych algorytmow przerywamy po 1000 tysiacu krokow wyliczen w nocy ! A wedlug tworcow algorytmy optymalizacji mialy byc takie nowoczesne i efektywne. Nie zostaly porzadnie przetestowane !
Godzac sie w celu szerokopasmowosci dopasowania LC na rownomiernie falista aproksymacje Czebyszewa uzyskamy znacznie szersze pasmo dopasowania ! W tym wypadku minimaksowe pulsacje charakterystyki A(w) w pasmie przepustowym maja byc rowne. Obliczamy charakterystyke czestotliwosciowa w kilkudziesieciu miejscach i znajdujemu takie gdzie gdzie z trzech kolejnych wartosci A(W) wynika ze wystapilo  minimum lub maksimum. Przy rownych odleglosciach na osi, wyliczenie interpolacyjnej funkcji kwadratowej z trzech punktow i z niej szukanego maksimum i minimum jest bardzo proste. Do aproksymacji Czebyszewa bardzo wydajny jest algorytm Remeza co jest osobnym tematem.

Przy dopasowaniu LC ( w zakresie mikrofalowym linie paskowe ) faktycznie  szerokopasmowym powstaje problem mocnej niestalosci w pasmie roboczym rownowaznych parametrow LR ( wejscie tranzystora Q ) lub RC ( wyjscie Q ) dwojnika reprezentujacego impedancje  wejsciowa i  wyjsciowa kolejnych tranzystorow. Majac analityczny ( czyli bardzo szybki ) sposob na wyliczenie elementow LC drabinki dopasowania Butterwortha lub Czebyszewa trzeba tylko optymalizowac czestotliwosc dla wyboru impedancji wejscia i wyjscia obu tranzytorow w postaci dwojnika RC lub RL.
W zalaczonym przykladzie pokazano dla tranzytorow obejmujacych caly zakres UHF ze producent w sugerowanym ukladzie dopasowania uzyl drabinki Butterowortha dla wzglednej czestotliwosci 0.7 z calego zakresu. Uzycie tej czestotliwosci nie jest dziwne bowiem parametry tranzystora szybko psuja sie z czestotliwoscia i stad wybor najlepszego dopasowania dla tak wysokiej czestotliwosci.
N.B. Nowsze tranzystory RF duzej mocy pierwsze ogniwo dopasowujace  LC w bazie maja juz wbudowane co ulatwia ich zastosowanie. Role pojemnosci C spelniaja dwa malutkie wbudowane kondensatorki SMD.      

Do projektowania dowolnych, optymalnych minimaksowych filtrow FIR ( Finite Impuls Response ) McLellan zrobil genialny program w Fortranie w ktorym  zastosowal (a) "czebyszewowski" algorytm Remeza, (b) wspolrzedne barycentryczne ( 1827 rok - Wspolrzedne zdefiniowane przez wierzcholki sympleksu. Bardzo uzyteczne w geometrii trojkatow i w CAD. Pojecie "barycentryczne" jest w Polsce  nieznane )  i (c) szybka transformate Fouriera FFT.  Wybor opowiednich wspolrzednych potrafi czasem mocno sprawe uproscic lub strywializowac. Program jest wydrukowany w "biblii"  "Theory and Application of Digital Signa Processing", L.Rabiner, B.Gold, Prentice Hall 1975 ale dostepny jak plik Fortranu, ktory po skompilowaniu dziala i mozna go w swoim wiekszym programie uzyc !   Charakterystyka projektowanego filtru FIR moze byc absolutnie dowolna co jest bardzo uzyteczne.
Za modulatorem Sigma Delta stosowana jest decymacyjna kaskada Comb Filter. Filtry te maja troche opadajaca charakterystyke w pasmie przepustowym. Stad finalny decymacyjny filtr FIR definiujemy ( przyklad w zalaczniku ) ze wznoszaca charakterystyka czestotliwosciowa tak aby dokladnie odwrocic znieksztalcenia charakterystyki wprowadzone przez Comb Filter. Mozemy nawet odwrocic spadek wprowadzony malo selektywnymi dolnoprzpustowymi filtrami aktywnymi filtrujacymi resztki obrazow z przetwornikiem DAC.  
To tworzylo droge do wykonywalnych technologicznie monolitycznych filtrow FIR stosowanych m.in w odtwarzaczach CD.  

Po co nam ogolnie ta optymalizacja ? Zeby udoskonalic ksztalt lopat turbiny i troche podniesc jej sprawnosc. Zeby zrobic tanszy i lepszy silnik elektryczny.... Zeby zarabiac pieniadze coraz lepszymi wyrobami.
Zeby stworzyc maly uklad hybrydowego ( a potem monolitycznego ) wzmacniacza mocy RF na zakres UHF ( w przyszlosci mikrofalowy ) do radiotelefonu komorkowego ktory miesci sie w dloni. Oczywiscie uklad musi byc jeszcze malo wrazliwy bo taki jest wymog produkcji masowej. Nie potrzebuje on zadnego trudnego i pracochlonnego strojenia – jest on wykluczone. Jeden z koncernow specjalizujacy sie w polprzewodnikach RF oferuje stanowisko z przyrzadami pomiarowymi RF i mikrofalowymi  sprzezonymi z komputerem. System mierzy parametry S tranzystorow w zadanym zakresie czestotliwosci i mocy. Takze tranzystorow sporej mocy co rzutuje na kosmiczna cene systemu. Z parametrow S program projektuje uklady dopasowujace kolejne stopnie calego wzmacniacza w wybranej technologii. Gdy uklad zbudujemy na plytce drukowanej ( odpowiedni material plytki pozwala siegnac do czestotliwosci 15 GHz) lub podobnie na podlozu ceramicznym  i wlaczymy do systemu, program po wielu pomiarach podpowie nam ktorym trymerem pojemnosciowym pokrecic i w ktora strone lub zgniac / rozgiac cewke jesli takie sa lub pilniczkiem podpilowac ( sa tez frazareczki CNC ) sciezki PCB.
Pierwszy radiotelefon komorkowy Motorola  wypuscila w 1974 roku ale byl za duzy, ciezki ( 800 gram ) i za drogi.  Pierwsza udana siec (radio) telefonii komorkowej  uruchomila NTT w  Japonii w 1979 roku. Od 1977 roku wszystkie radiotelefony komorkowe maja mikrokontroler. Obecnie (1987) (radio)telefon komorkowy kosztuje w USA  okolo 8 tysiecy dolarow a siec nie pokrywa calego kraju a kazda minuta polaczenia drogo kosztuje. Obecnie telefon komorkowy celowany jest dla dyrektorow i kierownikow duzych firm  gdzie cena 8 tysiecy dolarow nie ma zadanego znaczenia gdy w podrozy sluzbowej ma on udzielic informacji lub podjac wazna decyzje, ktora nie cierpi zwloki. W laboratoriach koncernow trwa obecnie wyscig w dziedzinie telefonii komorkowej bowiem do zarobienia sa w przyszlosci niewyobrazalnie wielkie pieniadze. Ale juz teraz na wieloletnie programy badawcze trzeba wykladac setki milionow dolarow.
Szerokopasmowe wzmacniacze mocy RF z odpowiednia antena sa bardzo uzyteczne jako silna bron radioelektroniczna. Mozemy wydajnym procesorem DSP off- line zsyntezowac maksymalnie wredny sygnal zaklocen a nastepnie on - line podac go do ultraszybkiego przetwornika DAC i wzmacniaczy mocy na zakres VHF czy nawet UHF. Zestaw taki na samolocie jest w stanie zniwelowac lacznosc wroga na obszarze kilkudziesieciu tysiecy km2.  

Funkcje oprocz minimum globalnego moga miec minima lokalne czasem niewiele rozne od globalnego. Z dobrym punktem startowym raczej dostaniemy minimum globalne i to wzglednie szybko. Z kiepskim  moze tylko minimum  lokalne a czas obliczen jest straszny. Totez zasadnicze znaczenie maja oszacowania gorne i dolne. Mozna je wydedukwac takze "metoda zdrowego rozsadku" Wszystkie metody sa w tej mierze dopuszczalne.
Gdy chcemy stworzyc szerokopasmowe dopasowanie Czebyszewowskie rezystancji ( jak wyjasniono impedancji z pochlanianiem pojemnosci i indukcyjnosci  ) to okazuje sie ze kaskada prostych ogniw ( kazde ogniwo o najmniejszej doborci Q ma jedno L i C ) dopasowujacych daje charakterystyke Czebyszewa ale o nieokreslonej pulsacji. Moze byc zbyt szerokopasmowe z za duza pulsacja lub odwrotnie.  Takie wartosci poczatkowe LC ze wspomniana procedura Powella szybko daja optimum.

Z optymalizacja zawsze chodzi o pieniadze a czesto poprawnie sformulowana funkcja celu jest od razu w mianach pieniadza !      
Juz w 1956 roku potezne koncerny General Electric i Westinghouse optymistycznie probowaly na lampowych komputerach IBM prowadzic optymalizacje transformatorow energetycznych.     
 
Wracajac do Badan Operacyjnych czyli OR - Operation Research. Dziedzina ta od czasow II Wojny Swiatowej mocno sie rozrosla i ma podstawowe znaczenie.
Stan OR na poczatku lat siedemdziesiatych:
Programowanie liniowe
Programowanie calkowitoliczbowe
Programowanie zero-jedynkowe
Programowanie kwadratowe
Programowanie nieliniowe
Zagadnienia transportowe
Programowanie dynamiczne a w tym podzial zasobow, niezawodnosc, nieliniowe zagadnienie transportowe.
Teoria grafow
Analiza sieci a w tym metody CPM i PERT
Zagadnienie optymalnych  zapasow
Optymalizacja kolejek

Obecnie OR stosuje sie do:
-Lokalizacja obiektu to oprocz OR dodatkowo Geometria Obliczeniowa. Zadania sa niestety NP - zupelne i scisle rozwiazanie w skomplikowanych przypadkach jest nie do uzyskania. Typowy przyklad to lokalizacja elektrowni, elektrocieplowni, szpitala, dworca kolejowego i autobusowego, systemu zbierania i wywozu smieci...
W przypadku elektrowni weglowej minimalizujemy koszt budowy i dzialania w okresie cira 30 lat. Gdy elektrownia ma byc blisko kopalni wegla to trzeba zbudowac linie przesylowe 400 KV lub mocniejsze co centrow odbioru. Gdy elektrownia jest dalej od kopalni trzeba wybudowac lub zmodernizowac linie kolejowa i placic na dowoz wegla. Straty mocy w sieci przesylowej nie powinny przekraczac 1.6 - 2 %. Wydatek energii na transport przez lokomotywe elektryczna pochodzi  pierwotnie z krajowego wegla lub przy lokomotywie Diesla z importowanej ropy naftowej. Rope mozna  przetlaczac rurociagiem ( pompy napedzane sa elektryczne ) lub transportowac statkami morzem zuzywajac "czesc" ropy.
Gdy elektrownia cieplna lub jadrowa nie jest nad rzeka lub duzym jeziorem musi miec chlodnie kominowa, ktora kosztuje i elektrownia ma mniejsza sprawnosc o ca 1%. Trzeba zbudowac drogi dojazdowe i ewntualnie domy i infrastrukture dla budowniczych z rodzinami. Siarka i tlenki azotu truja ludnosc i przyrode a ma na to wplyw lokalizacja. Sprawa sie trywializuje gdy uzywany wegla brunatnego lub taniego odkrywkowego kamiennego bo elektrownia musi byc wtedy w odleglosci paru kilometrow od kopalni. Liczba potencjalnych lokalizacji elektrowni wodnych jest ograniczona. Elektrownia jadrowa nie powinna byc za blisko duzego miasta ( mozliwosc wypadku ) i pamietac trzeba o trudnym  transporcie duzych elementow jak zbiornik reaktora. Wybrana lokalizacja elektrowni jadrowej w Zarnowcu wraz z towarzyszaca jej elektrownia pompowo - szczytowa w Zydowcach jest niezla ale nie jest jedyna .     

-Floorplan to automatyczny rozklad blokow procesora ( ALU, MUL, shifter, rejestry, ROM mikroprogramu lub PLA, Cache...) na chipie oraz przydzial pinow do funkcji. Czasy gdy procesor mial 5 tysiecy miejsc na tranzystory i mozna bylo wszystko recznie lub z pomoca programu CAD rozplanowac minely bezpowrotnie.  Podobne jest zadanie optymalnego rozmieszczenia elementow na plycie drukowanej ( takze rekonstruowanym schemacie w RE ) zwlaszcza gdy rozmieszczane uklady scalone maja duzo pinow.

-Przydzial zasobow ma mnostwo zastosowan. Dochod narodowy trzeba optymalnie (cel - najszybszy i dlugi rozwoj gospodarczy ) podzielic na konsumpcje indywidualna i zbiorowa  i inwestycje. Podatki decyduja jak czesc konsumowana jest podzielona miedzy bogatszych i biedniejszych. Plan strategiczny rozdziela srodki i ludzi do zadan. Przy niewystarczajacych zdolnosciach sieci telekomunikacyjnej trzeba zastosowac priorytety abonentow.

-Optymalizacja poprowadzenia sieci kolejowej, drogowej, wodociagu ( lacznie z lokalizacja pomp i zaworow regulacyjnych ), elektroenergetycznej i telekomunikacyjnej, ropociagow i gazociagow oraz rurociagow z benzyna i paliwem Diesla do metropolii. Po wstepnym automatycznym wytyczeniu szlaku ekipa z dalmierzem – katomierzem musi sie gazikami udac w teren i na miejscu szczegolowo ocenic trudnosci i naklady do budowy

-Optymalizacja zadan transportu

-Zaplanowanie optymalnych tras autobusow miejskich i dalekobieznych

-Optymalizacja (wieloaspektowa) zintegrowanego systemu transportowego skladajacego sie z lotnisk - samolotow, portow, kolei i drog - autobusow  

-Automatyzacja zadan produkcyjnych z uzyciem robotow. Typowa sytuacja to duza ilosc robotow zgrzewajacych powstajaca karoserie samochodu osobowego. Maly samochod osobowy ma ca 3 tysiece zgrzewow ale luksusowe ponad 7  tysiecy. Wszystkie roboty  linii ktora dziennie produkuje 700 samochodow robia typowo okolo 4 milionow zgrzewow !

-Optymalizacja dzialan wojennych stosowana juz w czasie II Wojny do bombardowan i konwojow. W przypadku dzialan ladowych wielkie znaczenia ma pogoda jako ze przy opadach deszczu czolgi i wozy zagrzebia sie w blocie. Moga przejechac drogami lub po zamarznietym zimowym gruncie.  

W  optymalizacji trzeba korzystac ze znanej  wiedzy a piori.
-Z prostych rozwazan wynika na przyklad ze optymalna wielkosc napiecia do przesylu NN ( w Polsce 400 i 220 KV ) energii elektrycznej w systemie elektroenergetycznym  rosnie z dystansem. Wynika tez z nich racjonalnosc pozostalych napiec dystrybucji i dlugosc linii WN (110 kV), SN ( typowo 15 KV ) i nn ( 400 V).
-Filtry LC maja swoja planowana charakterystyke czestotliwosciowa tylko z okreslonymi rezystancjami na wejsciu i wyjsciu. Za stereodekoderem MPX musza byc w obu kanalach zastosowane filtry LC ( rzadziej aktywne RC ) usuwajace sygnal poza pasmem akustycznym ( aby mozliwy byl zapis magnetofonem i nie byl przeciazany glosnik wysokotonowy i wzmacniacz mocy ) ale obciazeniem filtrow nie jest rezystancja ale wyjsciowy  trojnik RC pelniacy role deemfazy bowiem tak jest najprosciej, najtaniej ( nie ma bufora ) czyli nalepiej. Znow znajdujemy czestotliwosc przy ktorej dwojnik ( ten dwojnik - trojnik daje tez zero w nieskonczonosci ) szeregowy RC ma taka sama impedancje jak rownolegly przy czym czesc rzeczywista to opornosc dopasowania wyjscia filtru RC a rownolegla pojemnosc jest absorbowana w pojemnosci wyjsciowej ( do GND )  filtru eliptycznego" ( faktycznie II rodzaju Czebyszewa jako ze eliptyczny na duze duze znieksztalcenia fazowe ).  Kraje opoznione jak Polska sa w tej szczesliwej pozycji ze moga uzyc cudzych wynikow pracy czyli w tym wypadku troche dziwnego filtru LC efektywnie polaczonego z deemfaza. Przy odpowiednim wyborze czestotliwosci zer filtru eliptycznego jego tlumienie z uzyciem dwoch indukcyjnosci przekracza 50 dB. Wyliczenie wartosci L i C filtru LC  jest proste pod warunkiem uzycia idealnych L i C o nieskonczonej dobroci czyli zerowych stratach. Ale i dla tego zadania znane sa metody postepowania ulatwiajace optymalizacje. Gdy nie ma prostych wzorow do wyliczenia parametrow filltrow moze wyniki stabelaryzowac i stosowac szybko dwuwymiarowa interpolacje.
Japonski koncern Murata produkuje jako moduly filtry LC do stereodekoderow MPX a takze filtry aktywne RC razem z biernym LC do odtwarzaczy CD. Modul kosztuje 2-3 razy wiecej niz skladowe elementy w nim uzyte. Stosunkowo wysoki koszt filtrow do CD sprawil ze juz zastsowano DSP i oversampling.
 
-Przy aktywnej realizacji filtru "dolnoprzepustowego" ( ma dac wynikowo charakterystyke dolnoprzepustowa malo znieksztalcajaca impulsy razem z inna odpowiedzia ) kaskada filtrow II rzedu, wiadomo ze im wyzsza jest czestotliwosc graniczna elementarnego filtru II rzedu  w kaskadzie tym jednoczesnie wieksza jest jego dobroc.        

W zadaniach wymagajacych znajomosci terenu potrzebne sa bazy danych dotyczace terenu.
Idea triangulacji narodzila sie w starozytnej Grecji w VI wieku p.n.e. Niestety w Europie idea ta zostala na dlugo zapomniana. Idea przezyla jednak w Chinach. Triangulacja ponownie odzyla w Europie dopiero w XVI wieku. Dlugosci bokow trojkatow w panstwowej sieci triangulacyjnej wynosi 25 km i wiecej. Oznaczone wierzcholki trojkatow stanowia osnowe geodezyjna czyli uklad odniesienia dla panstwowej geodezji i kartografii. W zadaniach optymalizacji przestrzenne trojkaty  sa tym mniejsze im bardziej zmienny jest w wysokosci teren.
Juz w XIX wieku uzyskano wyniki triangulacji niewiele odbiegajace od wspolczesnych pomiarow dalmierzami mikrofalowymi i laserowymi oraz pomiarow satelitarnych dodatkowo przetworzonych programem komputerowym. Stosowano wielokrotne pomiary w roznych porach dnia i system wielu poprawek. Triangulacja pozwolila okreslic ksztalt kuli ziemskiej i jej wymiary
Wyniki triangulacji uzywane sa w budownictwie infrastrukturalnym, nawigacji, naprowadzaniu, metrologi i astronomii. Dane potrzebne sa od dekad precyzyjnej artylerii dalekiego zasiegu i samosterujacym pociskom manewrujacym. Wspolrzedne potrzebne sa do wszelkich budow – drog, linii kolejowych, wodociagow, ropociagow, gazociagow, linii energetycznych, budownictwa mieszkalnego, komunalnego i przemyslowego. Dopiero IX Konferencja Miedzynarodowej Unii Geodezyjnej i Geofizycznej w Brukseli w 1951 zalecila wprowadzenie we wszystkich krajach swiata jednolitego odwzorowania kartograficznego do analitycznego opracowania wynikow pomiarow geodezyjnych czyli triangulacji oraz do map topograficznych.
Dobrze ze sprawa ujednolicenia wspolrzednych na globie zdaje sie zmierzac do unifikacji. Przeliczenia wspolrzednych wymagaja czesto uzycia powolnych funkcji trygonometrycznych.  Oczywiscie potrzebne sa tez informacje o duze wiekszej rozdzielczosci niz triangulacyjne.

Budowa linii kolejowej czy dobrej drogi w trudnym terenie gorskim z rzekami jest bardzo kosztowna i optymalnie wyznaczona w terenie trasa do budowy  jest zbawieniem.
Z drogami i liniami kolejowymi nie jest w Polsce dobrze. Jest duzo do zrobienia. W czasach gdy kontynenty pokrywano liniami kolejowymi Polski nie bylo na mapie. Przykladowo idea budowy sieci Ostbahn z Berlina do Krolewca powstala w 1842 roku a w 1845 roku polaczono Berlin ze Szczecinem. Cala linia miala miec dlugosc circa 800 km laczac wiele miast po drodze. Za Krolewcem linia biegla do granicy z Rosja i Berlin mial miec dobre polaczenie z Petersburgiem i Moskwa. Na 97% dlugosci linia byla dwutorowa a wszystkie przyczolki mostowe przygotowano pod dwie linie. Na Pomorzu wykonywano dlugie proste linie. Niewiele bylo tam kosztownych mostow, duzych nasypow i przekopow. Wzdluz linii kolejowej budowano linie telegraficzne zamienione pozniej na telefoniczne.  W 1860 roku linia dotarla do Eydtkuhnen (Czernyszewskoje)  przy granicy z carska Rosja. Linia istotnie powiekszyla tempo wzrostu gospodarczego terenow przez ktore przebiegala. Linie pokonywaly miedzynarodowe pociagi ekspresowe i luksusowe. Ogromna role linia ta odegrala w poczatkach I Wojny Swiatowej. Koleje wszedzie w swiecie laczyly wszelkie kopalnie i zrodla surowcow z fabrykami a te z odbiorcami towarow. Koleje integrowaly system gospodarczy.
W miedzywojennej Polsce, ktora od zaborcow przejela prawie 16 tysiecy km lini kolejowych,  linii zbudowano okolo 2300 km czyli bardzo malo. Najwazniejsza inwestycja byla magistrala weglowa do Gdyni.  Polscy inzynierowie i technicy nie mieli sie gdzie uczyc i co robic. Czesc lini kolejowych na terenach poniemieckich jest obecnie nieuzywana z powodu zmian w przynaleznosci w systemach gospodarczych panstw. Linie waskotorowe zostaly zastapione autobusami i ciezarowkami. Polska po 1945 roku wyremontowala zniszczone i zapuszczone w czasie wojny  linie i infrastrukture ale przyrost ich dlugosci jest niewielki jak na potrzeby. Zeelektryfikowano okolo 8 tysiecy km linii kolejowych.
Polska w ogole nie ma autostrad i trzeba je dopiero zbudowac. Sa wiec zastosowania dla optymalizacji i AI. Zintegrowany system transportowy moze podniesc szybkosc wzrostu gospodarczego o 0.2%  rocznie.

Od poczatka lat piecdziesiatych doskonalony jest sprzet komputerowy a jednoczesnie doskonalone sa algorytmy. Skutkiem tego cos co kiedys uwazano za fantazje staje sie wykonywalne.
Aby zastosowac "OR" do wyznaczenia nowej lini  kolejowej, autostrady, linii przesylowej, stacji rozdzielcznej, elektrocieplowni, osiedla... potrzeba danych geodezyjno - kartograficznych ale tez danych o istniejacych juz wszelkich obiektach oraz roznych prognozach. Abstrachujac na razie od postaci danych, takie dane zbiera sie dekadami ! W USA sa one zbierane jako pliki od ponad dwoch dekad ! Uczac sie na cudzych doswiadczeniach i bledach powinnismy szybko stworzyc nasze dane. Tymczasem nie ma w Polsce standardu plikow.
 
Ogromnym krokiem w standaryzacji informacji tekstowej byla czcionka Gutenberga. Powszechnie w swiecie  teksty kodowane sa obecnie w ASCII (1963) chociaz ten kod jest juz przestarzaly. Edytor tekstu WordStar pierwotnie pracujacy pod systemem CP/M jest na komputerach PC wypierany przez znacznie lepszy edytor WordPerfect. Mozna obejrzec jak w jego pliku miedzy samym testem umieszczone sa tagi nazwane przez producenta  "codes" organizujace tekst na stronie.
Swoj wlasny rozpoznawalny format czasopism ma kazda organizacja jak IEEE czy ACM i kazda liczaca sie w swiecie gazeta. Edtor powinien wiec umozliwic uzycie wielu ( takze swoich )  czcionek, pozwalac tekst umieszczac w pozadany sposob na stronie na przyklad w dwoch kolumnach czy w tabeli. I tak dalej
Prosty jest format bazy danych dBase. Szczesliwie nieskomplikowany jest (wydaje sie ) format danych w rocznikach statystycznych GUS. Format pliku arkusza kalulacyjnego 123 tez nie jest bardzo trudny. Malo czytelne sa pliki formatow programow CAD.
Wektor liczb zmiennoprzecinkowych mozna zapisac na dysku ( HD lub FD ) jako tekst ale mozna tez te liczby zapisac w wewnetrznym formacie zmiennego przecinka w postaci 32 bitowej a dla dokladnej double 64 bitowej. Jesli ten wektor bedziemy edytowac to wygodny jest zapis tekstowy bo wystarczy uzyc zwyklego edytora tekstowego podczas gdy do edycji wartosci liczb w fomacie binarnym trzeba zrobic programik. Liczby w formacie binarnym mozna jednak szybko wczytac bez zamiany tekstu na liczbe zmiennoprzecinkowa a poza tym w tekscie moga byc bledy formatu liczby  co wymaga ich obslugi czyli komplikacji programu.

Koncern IBM ( Fortran level H extended,  List-directed free form I/O ) "swobodny" format danych w postaci list wprowadzil w 1972 roku, ktory inspirowal rozwiazania w Fortran 77. Poniewaz separatorem jest tam przecinek obecnie rozpowszechnia sie skrot CSV - Comma Separated Value.  Wybor takiego separatora czasem moze stwarzac problemy i mozna sobie wybrac inny. W formacie CSV latwo mozna zapamietac na przyklad baze danych.

Wrocmy do potrzebnych dla "OR" baz danych.  Dane o trojkatach  w panstwowej sieci triangulacyjnej sa trywialne ( takze w pliku ) ale ich rozdzielczosc jest mala.  Na graficznym monitorze komputera rysunek powierzchni kraju z tymi trojkatami mozna przedstawic momentalnie. Poprawnosc danych traingulacyjnych z grubsza mozna ocenic wizualnie ale tez lepiej prostym algorytmem.
O ile wykazujac upor i konsekwencje z omowienia algorytmow OR lub z pseudokodu z publikacji  mozna wykonac "fajna" dzialajaca procedure do OR to z formatami danym i z danymi sa problemy poniewaz programy sa nierzadko wykonywane dla konkretnej organizacji i strzezone. Wiadomo na przyklad ze dane z radarow amerykanskiego systemu obrony balistycznej przetwarza filtr Kalmana ale o formatach plikow "obrazow" i obrazow troche odszumionych nic nie wiadomo.
Rozdzielczosc zdjec lotniczych jest ogromna ale geometria zdjecia  jest znieksztalcona obiektywem (mimo iz jest to doskonaly obiektyw) i ruchami termicznymi atmosfery. Po przykrojeniu zdjec na brzegach nie przystaja one obiektami dokladnie do siebie i jest na przyklad uskok drogi i wszystkiego innego. Do zadania uzgodnienia zdjec ( w postaci cyfrowej ) uzywane sa superkomputery. Zdjecia lotnicze pozwalaja ocenic prawdziwosc wspolrzednych wszystkich obiektow: wszelkich budynkow, drog...  
Planowana "silna" ( dopuszczalna duza predkosc pociagu osobowego i ciezar pociagu towarowego )  linia kolejowa na pewno wejdzie w kolizje z wieloma istniejacymi obiektami ale koszty przebudowy wszystkiego trzeba minimalizowac i uwzglednic je w bilansie wszystkich kosztow.      

Dobre rozwiazania znalezione dzieki OR daja korzysc firmom i panstwom przekladajac sie na tempo Wzrostu Gospodarczego kraju.
W histori swiata blyskawicze tempo rozwoju zachodniej gospodarki w powojennym cwiercwieczu ( troche wolniejsze w krajach RWPG a w Polsce najwolniejsze ) jest zdarzeniem unikalnym w dziejach swiata, ktore raczej sie juz nie powtorzy. W Anglii wzrost gospodarczy jest obserwowany od 1750 roku. Nawet male roznice w tempie wzrostu skumulowane w dlugich okresach daja potezne roznice. Bardzo powolny wzrost gospodarczy wystepowal juz wczesniej ale czesto byl cofany katastrofalnymi epidemiami, wojnami i glodem.
Srednie (rocznie)  tempo wzrostu gospodarki ( zaokraglone w dol ) w Anglii w okresach. W nawiasie skumulowany ( na zasadzie procentu skladanego ) w tym okresie wzrost:
1700 - 1750  ->0%    (0%)
1750 - 1818  ->0,2% (18%)
1818 - 1918  ->1,0% (180%)
1918 - 1947  ->0,5% (17%)
1947 - 1984  ->2,0% (108%)
Zatem rownie wazna jak szybkosc jess dlugotrwalosc okresu wzrostu nie przerywanego uwsteczniajacymi  kryzysami.  

Wymienione wspolrzedne barycentryczne sa bardzo uzyteczne w geometrii obliczeniowej. Ilustracyjnie wspolrzednym kartezjanskim X,Y na obszarze danego trojkata odpowiadaja wspolrzedne barymetryczne, trzy dodatnie liczby - naciski L1,L2,L3 ( L znaczy tu Lambda, wylicza sie tylko L1 i L2 bowiem L3=1-L1-L2 ) na wierzcholki trojkata spowodowane masa 1 w punkcie XY. Ale gdy punkt XY jest poza trojkatem przynajmniej  jedna ze wspolrzednych jest ujemna.
Wzory na transformacje XY - > L1,L2,(L3) sa proste i wydajne. L3 moze ale nie musi byc bo zawsze mozna ja wyliczyc. Zatem dane o trojkacie mozna wygodnie przechowac w strukturze ( dalej ) w C lub Pascalu czy innym.
Duzy trojkat moza wydajnie podzielic na mniejsze trojkaty.  Latwo mozna stwierdzic gdzie prosta w przestrzeni przebija trojkat i czy w ogole przebija. Wspolrzedne barycentryczne sa wygodne w grafice komputerowej ( ray tracing czyli sledzenie promieni ) i geofizyce. Wspolrzedne barycentryczne wygodne sa do graficznego  trojwymiarowego renderowania - cienie, odbicia, zalamania swiatla, mgla.  Najwydajniejsza metoda graficznego renderowania  jest wymieniona juz metoda sledzenia promieni. Renderowanie jest bardzo "pracochlonne".    

Jezyk C jest elastyczny i uniwersalny. Fragment zrodlowego tekstu C systemu operacyjnego Unix pokazuje elastycznosc postepowania ( dostepu przez index wektora lub pointerem ) z wektorem wymiaru OPEN_MAX struktur - wektorem "files descriptors"  _iobuf  . Nazwy zmiennych systemu Unix ropoczynaja sie od podkreslnika

#define OPEN_MAX 20 /* max #files open at once */
typedef struct _iobuf {
int cnt; /* characters left */
char *ptr; /* next character position */
char *base; /* location of buffer */
int flag; /* mode of file access */
int fd; /* file descriptor */
} FILE;
extern FILE _iob[OPEN_MAX];
#define stdin (&_iob[0])
#define stdout (&_iob[1])


Najwazniejsza jest zawsze dobra Idea. Do optymalizacji systemu gospodarczego potrzebne sa informacje. Od czegos mozna zaczac.
GUS ma dane w postaci plikow ( prawdopodobnie S360 ) i po dodaniu tam utajnionych danych dotyczacych dotacji sa one calkiem uzyteczne.

Graficzne czy tekstowe prezentowanie informacji jest szybkie i proste w przeciwienstwie do znalezienia optymalnych rozwiazan.
Rozwoj gospodarki, nauki, technologi jest ewolucyjny i ciagly. Polska jest i raczej dalej bedzie. Skoro w cywilizowanym swiecie dane zbiera sie dekadami to nie ma powodu aby inaczej bylo w Polsce. Dokladne dane geodezyjno – kartograficzne sa bardzo uzyteczne w wielu zastosowaniach. Pliki musza byc potezne ale pojemnosc twardych dyskow rosnie bardzo szybko. Plyta CD wedlug propozycji  jako ROM bedzie miescic 600 MB danych. Wykonanie matrycy do tloczenia CD nie jest tanie ale warto bedzie dane geodezyjno kartograficzne na plytach CD ogolnie udostepnic. Oczywiscie dla parweniuszy z prosta przegladarka terenu a dla powaznych uzytkownikow z prostym interfejsem do wydobywania potrzebnych danych i tekstami przykladowych programow.

Majac przepastne dane uzytkownik nie powinien sie dac maszynie nudzic. Gdy komputer nie ma co robic mozna na przyklad na slepo znajdowac wszelkie korelacje i zwiazki w dlugich seriach danych ! Kto wie, moze sa jakies nieodkryte prawidla w rozwoju swiata ?  

Oczywiscie przyswajanie cudzych algorytmow jest wazne ale nie zastapi wlasnych odkryc. Jednak wywazania otwartych drzwi trzeba unikac.

Producenci wysokie marze uzyskuja na wyrobach nowoczesnych i skomplikowanych.
Prostackie zastosowania komputerow nie pozwalaja zarabiac pieniedzy. Natomiast trudna optymalizacji i AI otwieraja droge do dobrobytu i bogactwa !

3 komentarze:

  1. "Prostackie zastosowania komputerow nie pozwalaja zarabiac pieniedzy. "
    W Polsce dalej są tylko prostackie zastosowania komputerów. Po prostu kraj jest prostacki. To jest neokolonia z tanim pracownikiem i kupa złodziei u koryta.

    OdpowiedzUsuń
    Odpowiedzi
    1. Witam
      Chyba jakieś fatum wisi nad nami ze nie możemy się wyrwać z zaklętego kręgu prymitywu.

      Usuń
  2. Dzień dobry,

    dom mojej mamy to szeregowy dwukondygnacyjny budynek jednorodzinny o pow. ok. 200-250m2 z dostępem do ciepła miejskiego. Cała koncepcja instalacji CO jest stara i była przygotowana pod zupełnie inne warunki (lokatorskie). Postaram się jak najjaśniej przedstawić, jak wygląda obecnie i jakie są nasze cele.

    Węzeł znajduje się w garażu. Stamtąd system rozprowadza wodę po grzejnikach na dwóch kondygnacjach, sterowany z termostatu przewodowego umieszczonego w największym pokoju na pierwszym piętrze. Pierwsze piętro zajmowane jest przez moją mamę, zaś partner jest wynajmowany, co powoduje, że w domu mieszkają ludzie o różnych preferencjach co do temperatury, tj. zazwyczaj oznacza to, że moja mama woli temperaturę niższą, w okolicach 17-19C, w zależności od pomieszczenia, wynajmujący zaś zwykle wyższą, 20C+.

    Jakie byłyby cele modernizacji:

    - by na dwóch piętrach można było uzyskać temperaturę, która jest komfortowa dla mieszkających tam ludzi, przy czym na piętrze wynajmowanym w okolicach 20.5C, być może wyższej, jeśli ktoś bardzo by sobie tego życzył (w końcu jest to bardziej opłacalne niż nieuniknione dogrzewanie elektryczne), na piętrze zamieszkanym zaś ok. 18-19C;
    - aby nie istniała możliwość znacznego podniesienia docelowej temperatury samodzielnie przez lokatorów,
    - aby grzejniki wyłączały się przy otwarciu okna,
    - aby istniała możliwość programowania dziennego (przynajmniej z grubsza).

    Domyślam się, że zawierać się w tym będzie kupno nowego termostatu, nowych głowic z jakimiś elektronicznymi funkcjami itp., ale trudno mi, zupełnemu laikowi, opracować jakiś spójny plan.

    Dzięki za pomoc!

    OdpowiedzUsuń