Co to jest triz



Yüklə 1,06 Mb.
səhifə13/21
tarix03.04.2018
ölçüsü1,06 Mb.
#46572
1   ...   9   10   11   12   13   14   15   16   ...   21

Zadanie 81.
Załóżmy, jest planeta w kształcie torusa. Warunki podobne do ziemskich: atmosfera identyczna, doba 24 h, rok 365 dni. Nachylenie płaszczyzny głównej torusa 45°. Odpowiedzcie na pytania:

  1. Jak zmienia się siła ciężkości przy poruszaniu się po powierzchni tego „obwarzanka”

  2. Jak tam płyną rzeki?

Narysujcie zachód ( lub wschód) słońca, obserwowany z wewnętrznego równika „obwarzanka”.
Wielu przywykło patrzeć na literaturę SF jak na czytanie rozrywkowe, literaturę drugiego gatunku, środek bezmyślnego spędzania czasu. Jednakże badania socjologiczne wykazały, że największe zainteresowanie fantastyką wykazują ci, dla których ważne jest rozszerzenie horyzontów myślenia, którzy interesują się przyszłością ( swoją i społeczeństwa): pracownicy naukowi, specjaliści prognozowania, wykładowcy uczelni, wynalazcy, lekarze, studenci, uczniowie. Dlaczego właściwie lubią fantastykę? SF to walka z zareglamentowanym światem ( demagogią, ciemnotą, wewnętrznym zniewoleniem, kłamstwem). Nie lubią SF ludzie, którzy osiągnęli jakiś sukces i nie chcą żadnych zmian, nieprzyzwyczajeni dużo czytać i myśleć…

Fantastyka – to jeden ze sposobów wciągania uczniów w czytanie literatury pięknej ( dobry chwyt: wprowadzenie do literatury przez to, co się podoba). Tym bardziej, że literatura klasyczna w wielu przypadkach zawiera elementy fantastyki: Homer, Szekspir ( cień ojca Hamleta) Rabele, Swift, Defoe, Gogol („Nos”, „Noc wigilijna” itp.) Dostojewski, Czernyszewski, Puszkin ( bajki, „Kamienny gość”, „Mozart i Salieri” – to historyczna fantastyka)…

Fantastyka - to literatura o niezwykłym, nieistniejącym ( czego nie było, i być może nigdy nie będzie). Główny cel fantastyki – budowa modeli świata. Fantastyka eksperymentuje, zmieniając realia ( wyprzedzający realizm) i dlatego ona jest szersza, niż zwykłe ludzkie bytowanie. Fantastyka niezmiernie rozszerza horyzonty, szczegółowo opisuje nie tylko realia dzisiejszego i przyszłego świata, ale i dalekiej, a nawet bardzo dalekiej przyszłości. Dlatego fantastyka w dużym stopniu kształtuje rozumienie świata.

We współczesnej fantastyce wytworzyło się ponad dziesięć podgatunków: naukowo – techniczna, popularyzatorska, filozoficzna, historyczna, satyryczna, psychologiczna, socjalno – utopijna, socjalno uprzedzająca ( antyutopijna) paradoksalna, przygodowa, humorystyczno – satyryczna, itd. Każdy podgatunek to określony sposób widzenia świata. Nie ma podgatunków głównych i wtórnych, w każdym z nich mogą powstawać wysoko artystyczne dzieła (jak zresztą w każdym gatunku literackim).

Dla kursu RTW ( Rozwoju Twórczej Wyobraźni) najważniejsze są dwa podgatunki: naukowo – techniczny fantastyka utopijna. Główne ich zadanie, to przewidywanie naukowo technicznych i socjalnych zmian w społeczeństwie.

Wydawałoby się, jak może fantastyka przewidzieć to, o czym jeszcze nie myślą uczeni?

„Wszystko, co jeden człowiek może wytworzyć w swojej wyobraźni, drugi potrafi wdrożyć w życie” – słowa te przypisuje się Juliuszowi Verne. Rzeczywiście, historia naukowej fantastyki daje błyskotliwe przykłady przekształcania „niemożliwego” w „możliwe”. W rezultacie otrzymuje się taki oto obraz ( analizę przeprowadził H. Altow).

Stuletnia historia naukowej fantastyki świadczy, że śmiałe idee mają większe prawdopodobieństwo realizacji niż idee „ostrożne”. Jeden z wiodących pisarzy SF - R. Bradbury wypowiada się bardziej kategorycznie: „naukowa fantastyka – to najważniejszy gatunek naszych czasów. Nie jest ona częścią „głównego nurtu” w literaturze. Ona sama jest głównym nurtem. Historia fantastyki naukowej – to historia idei, które zmieniają świat, ale które początkowo są wyśmiewane i odrzucane.” ( Tiechnika mołodioży – 1980 Nr 9)

Ani jedna z tablic porównawczych, prognoz realnego wdrożenia, zestawianych przez uczonych – futurologów w ostatnich 30 latach, nie dają tak wysokiego procenta „trafności”, jaki mają pisarze fantastyki. A przecież pisarze – fantastyki zaglądają w przyszłość na dziesiątki i setki lat naprzód. Spośród udanych prognoz można podać, przykładowo utopie W. Odojewskiego „Rok 4338 Petersburskie listy” ( 1840 r. ) - samoloty, pociągi elektryczne, syntetyczne tkaniny, samobieżne drogi; powieść A. Bogdanowa „Czerwona gwiazda” ( 1908) – silniki atomowe, zakłady – automaty, ( w swojej dwutomowej pracy „Wszechorganizacyjna nauka” (1913 – 1917) A. Bogdanow przewidział wszystkie podstawowe idee cybernetyki); utopia W. Nikolskiego „Przez tysiąc lat” (1926) – prognoza, że pierwsza bomba atomowa będzie zdetonowana w 1945 roku; powieść pierwszego amerykańskiego ( w USA literatura SF pojawiła się później niż w innych krajach) pisarza H. Gernsbecka „Ralf 124C41+” (1911) – wideotelefon, hipnopedia, mikrofilmy, radiolokacja, rakiety.

Oczywiście mechanizm oddziaływania fantastyki na naukę nie sprowadza się do prostej formuły: „fantasta przewidział – naukowcy zrealizowali”. Oprócz tego w fantastyce spotyka się idee wątpliwe, nierealne i otwarcie umowne. Jednakowoż bardzo dobrze działają także najbardziej nierealne idee. Tylko ich wpływ jest subtelniejszy: pomagają one pokonać bariery psychologiczne na drodze do „bezrozumnych idei” bez których nie może rozwijać się współczesna nauka. Ten mechanizm staje się w ostatnich latach przedmiotem poważnych analiz. Badając siły napędowe współczesnej nauki, doktor nauk O. I. Łariczew ( WNII systemowych badań Akademii Nauk Federacji Rosyjskiej) mówi przykładowo tak: „ Liczne pomysły fantastów z lat 50. wpłynęły, jeśli nie na same badania, to na ich cele – i doprowadziły koniec końców do pozytywnych rezultatów. <…> Ten czynnik jest silniejszy niż się to na pierwszy rzut oka wydaje: w podświadomość naukowców trafiają idee, które z czasem stają się celami” (Chemia i życie. – 1987 Nr 2 str. 18) O roli literatury SF w swoim czasie mówili liczni wybitni uczeni i wynalazcy (K.E. Ciołkowski, J.W. Kondratiuk, S.P. Koroliew i wielu innych). Autor odkrycia jednego z rodzajów holografii ( dyplom Nr 88) J.N. Denisjuk otwarcie oświadczył, że ideę tę zaczerpnął z opowiadania I.A. Jefremowa „Cień minionego” ( patrz. Problemy wynalazczości – 1986. – Nr 3 str. 13). Profesor W.P. Wielichow także powoływał się na literaturę SF: wiele współczesnych problemów, związanych ze współdziałaniem człowieka i maszyny, było przewidywane w literaturze SF 50 – 60 lat. (patrz. „Problemy teorii i praktyki sterowania”. 1965. – Nr 2).

Należy podkreślić, że na razie jedynym masowym i ogólnie dostępnym, praktycznie realnym środkiem rozwoju fantazji pozostaje literatura SF – unikalna metoda poznania przyszłości. Jej zdolność dostarczania ludzkości idei, modelowania socjalnych, psychologicznych i naukowych przesłanek tych idei przyciąga dzieci, inżynierów i naukowców.

Ani jedna śmiała idea – ani w nauce, ani w fantastyce – nie była od razu uznana za prawdziwą. Idee zawsze rodzą się jako „wątpliwe” dla pospolitego sposobu myślenia. Dlatego czytanie literatury SF powinno stać się elementem profesjonalnego wykształcenia wynalazcy.
BIURO PATENTOWE FANTASTYKI
Autor idei I.A. Jefremow, priorytet – 1959 rok, powieść „Serce Ziemi”.

Chirurgiczny automat, zaopatrzone w konieczne dla różnych operacji wyposażenie i sterowany drogą radiową, znamienny tym, że w celu maksymalnej efektywności chirurgicznej interwencji automat superminiaturowe rozmiary i swobodnie przemieszcza się w naczyniach krwionośnych i w wewnętrznych organach. Operacje prowadzi się bez uszkadzania wewnętrznych organów, oprócz bezpośrednio operowanego.

Autor idei W. Żurawlewa, priorytet – 1969 r. opowiadanie „Śnieżny most nad przepaścią”.



Sposób zwiększenia prędkości statków , znamienny tym, że dla zmniejszenia oporu tarcia wody, w kierunku ruchu statku kieruje się wiązkę protonów, pod działaniem której kompleksy molekuł wody dzielą się na oddzielne molekuły z ostrym obniżeniem lepkości i oporów ruchu.

Autor idei H. Gernsbeck, priorytet – 1911 r. powieść „Ralf 123C41+“



Sposób leczenia chorób, znamienny tym, że dla maksymalnego oddziaływania na chory organ, choremu aplikuje się zarejestrowane prądy czynnościowe odpowiedniego organu zdrowego człowieka, wpływające stymulująco na chory organ.
Autor idei R. Hainlain, powieść „Jeśli to będzie trwać nadal”

Sposób przekazania informacji, znamienny tym, że tajną informacje przekazuje się kurierowi znajdującemu się w stanie hipnozy, przy czym po zakończeniu seansu kurier nic nie wie o treści informacji. Informację odczytuje się po wprowadzeniu kuriera w stan hipnozy.

Autor idei J. Verne, priorytet 1914 r. powieść: „Niezwykłe dzieje ekspedycji Barsaka”



Zjawisko nadprzewodnictwa w temperaturze pokojowej.

Powieść była napisana 10 lat przed publikacją. Nadprzewodnictwo odkrył w 1911 roku H. Kamerlingh-Onnes. Wielki krok do wysokotemperaturowego nadprzewodnictwa zrobiono dopiero w 1987 roku, ale w temperaturze pokojowej nie udało się jeszcze tego dokonać.

Źródła teorii wynalazczości
Na świecie od czasu pierwszej rewolucji przemysłowej wydano w przybliżeniu 50 000 książek, poświęconych twórczości technicznej, co mówi o ostrej aktualności tematu dla naszej technicznej cywilizacji. Jednakowoż zastosowanych w praktyce metod twórczości jest nie więcej niż ok. pięćdziesięciu. Z nich jedynie ok. 10 mniej lub bardziej jest rozpowszechnionych na świecie: burza mózgów, synektyka, analiza morfologiczna, metoda kontrolnych pytań i inne.

Metoda prób i błędów nie wchodzi w tę dziesiątkę – nie można jej nazwać metodą, jaklo że nie ma w niej zaleceń, zasad, kroków.. Ale większość wynalazców na świecie nadal korzysta właśnie z tej metody i nawet nie podejrzewa istnienia tej dziesiątki…

Problemem twórczości ( tj. szerszego pojęcia, niż technicznej) zainteresowano się już ok. 2 tys. lat temu. Ale badanie twórczości „ w ogóle” niewiele dało dla poznania mechanizmów i prawidłowości twórczego procesu. Sto lat badań naukowo – technicznej twórczości pozwoliło dostrzec jedynie zewnętrzną specyfikę procesu twórczego: jak robi to wynalazca, naukowiec, co jadł na śniadanie, co mu się śniło…

Naukowa organizacja procesu rozwiązywania zadań wynalazczych może być oparta jedynie na obiektywnych prawidłowościach, ujawnionych we współdziałaniu i wzajemnym wpływie techniki i człowieka: właśnie te dwa komponenty kształtują istotę twórczości technicznej. W rezultacie należy poznać prawa rozwoju techniki i zasadnicze właściwości ludzkiej psychiki.

Poznać prawa rozwoju techniki można jedynie badając rezultaty twórczości – bazę patentów.

Poznać ludzką specyfikę procesu wynalazczego można jedynie w praktyce – dla tego przez wiele lat prowadzono seminaria, kursy nauczania technicznej twórczości. Głowna idea nauczania: uczący się otrzymują metodykę (elementy teorii), a następnie zadanie wynalazcze ( szkolne, ze znaną odpowiedzią), rezultaty i tok rozwiązywania są szczegółowo analizowane w celu ujawnienia odchyleń od metodyki, ich analizy i możliwości korekty metodycznych zaleceń.


Rozdział 7. Wektor idealności
SYSTEM NA FALI EWOLUCJI

Zaznajomimy się z głównym prawem rozwoju techniki: rozwój wszystkich systemów biegnie w kierunku powiększenia stopnia idealności.



Idealny system techniczny – to system, którego nie ma, a jego funkcja jest wykonywana. Zasada przekształcenia realnego ST w idealny, jak już o tym mówiliśmy, ma w pełni konkretne, materialne podstawy. Jest to główna tendencja rozwoju techniki, ma wielokrotne potwierdzenie w historii techniki i jest słuszna dla wszystkich współczesnych ST. Tylko, że droga przekształcenia ST w idealny ( zlikwidowanie systemu) jest o wiele bardziej złożona, zawiła i trudna, niż „czarodziejski” chwyt w kursie RTW ( Rozwój Twórczej Wyobraźni). Wykorzystując chwyt o wyobrażeniowym przekształceniu obiektu, „przeskakujemy” mnóstwo stopni pośrednich i otrzymujemy w pełni normalną, „dziką” ideę. Żeby ją uzyskać potrzebne jest śmiałe myślenie, a żeby ją zaakceptować potrzeba trochę czasu.

Żeby łatwiej zobaczyć łańcuch takich przekształceń, dobrze jest zastosować prosty chwyt: rozmieścić wszystkie zdarzenia ( zmiany w ST) na ściągniętej ( krótkiej) osi czasu i popatrzeć, co dzieje się z ST, jaka jest ogólna prawidłowość w jego rozwoju. Taka analiza była przeprowadzana w najróżniejszych, całkowicie niepodobnych do siebie systemach: techniki cieplnej, transportu, łączności, uzbrojenia i innych.



Rozpatrzymy podstawowe teoretyczne założenia i zilustrujemy je przykładami.

W najbardziej ogólnej postaci proces rozwoju można przedstawić jako szereg kolejnych przypadków ( wynalazków) na osi czasu, od momentu powstania ST do dnia dzisiejszego i dalej - w przyszłości. Dopóki kolejny wynalazek okazuje się korzystnym, tj. zwiększa główną korzystną funkcje ( GKF) systemu (w przeciwnym przypadku wynalazek nie jest potrzebny nikomu i nie można go w ogóle nazywać wynalazkiem), to celowe jest utożsamienie osi czasu ze skalą wzrostu GKF systemu.




W ten sposób cała historia rozwoju ST – to nieprzerwany łańcuch wynalazków i ulepszeń w jedynym niezmiennym celu: podniesienie GKF. Ale jedna oś współrzędnych mało daje, można zauważyć jedynie nierównomierności rozwoju: punkty ( wynalazki) rozłożone są to rzadziej, to gęściej. Wprowadzimy drugą oś – złożoność ST. Złożoność, to bardzo ogólny wskaźnik, wyraża całą hierarchiczną strukturę systemu: ST ( na przykład samochodu) zawsze powstaje „w pojedynkę” i składa się z niewielu prostych elementów ( prawo kompletności części systemu), z biegiem czasu rozwija się „obrasta zbiorem podsystemów, które swoją koleją, dzielą się na drobniejsze podsystemy itd. – aż do substancji. Jednocześnie biegnie jakościowy wzrost pojedynczych ST ( wiele samochodów) pojawiają się systemy dla ich obsługi (autostrady, garaże, służby remontowe itd.) – wszystko to łączy się w nadsystem ( transport samochodowy), w którym powstaje zbiór systemów uzupełniających sterowanie ( semafory uliczne, inspekcja transportu samochodowego), przemysł ( fabryki samochodów, rafinerie ropy naftowej) serwisy, szkolenie, sprzedaż, utylizacja zużytych ST itd. Wszystkie te zmiany, zachodzące w ST, mają, powtórzmy, jeden cel – powiększenie GKF, na przykład dla samochodu będzie to powiększenie prędkości, komfortu i bezpieczeństwa transportu osób ( także towarów) w przestrzeni. Stąd druga oś – złożoność ST.

Przejście technicznych „organizmów” od postaci A do postaci B podlega prawidłowościom, i ani jeden wynalazca nie może w istotny sposób zmienić drogi rozwoju: przejść, na przykład od A do X lub zwrócić rozwój wstecz – od B do A. Rozwój systemu A biegnie drobnymi „kroczkami”, zmiany stopniowo nawarstwiają się i system już w mocno zmienionej postaci przekształca się w system B.

W najogólniejszej postaci prawidłowość rozwoju ST wygląda następująco. Zaczynając do momentu swego powstania, system powiększa swoją GKF kosztem zwiększenia złożoności, „obrasta” masą wspomagających podsystemów – to okres rozwoju ST. Następnie rozwój ST napotyka na obiektywne ograniczenia wzrostu złożoności (fizyczne, ekonomiczne, ekologiczne) i zaczyna się okres zwijania ST – zewnętrznie wygląda to jak uproszczenie ST. W rzeczywistości korzystne funkcje, uzyskane na poprzednim etapie rozwoju i wcielone do uzupełniających systemów, zaczynają być wypełniane przez „rozumne” substancje (idealne substancje). Idealna substancja ( IS) może przejąć jedna lub więcej części ST – takie przypadki już rozpatrywaliśmy.

Najciekawszym zagadnieniem jest ustalenie: jak dokonuje się przejście od jednego wynalazku do drugiego? Jaki jest mechanizm przejścia ST od jednego punktu do drugiego? Mając odpowiedź na te pytania poznajemy istotę procesy rozwoju.

Analiza historii rozwoju wielu ST wykazuje, że wszystkie rozwijały się poprzez szereg kolejnych momentów:





  1. Pojawienie się potrzeby.

  2. Formułowanie GKF – socjalnego „zamówienia” na nowy ST.

  3. Synteza nowego ST.

  4. Powiększanie GKF – próba „wyciśnięcia” z systemu więcej niż on może dać.

  5. Przy powiększaniu GKF pogarsza się jakaś część ( lub właściwość) ST – powstaje techniczna sprzeczność, tj. pojawiają się możliwości sformułowania zadania wynalazczego.

  6. Rozwiązanie zadania wynalazczego z wykorzystaniem wiedzy z obszaru nauki i techniki ( i nawet świata – i z kultury w ogóle).

  7. Wprowadzenie zmian do ST wynikających z wynalazku.

  8. Powiększenie GKF ( patrz krok 4) itd.


Pojawienie się potrzeby. Wszystko, co dzieje się w świecie techniki, dzieje się dla zaspokojenia potrzeb człowieka i społeczeństwa. Jeśli nie ma potrzeby zaistnienia ST, to on nigdy nie zaistnieje, a jeśli potrzeba się pojawia, to z czasem staje się ona coraz bardziej naglącą i nic nie zatrzyma człowieka na drodze do jej zaspokojenia.

Opowiemy krótko o historii stworzenia aparatów latających1 Idea latania ( lub marzenie w czystej postaci) powstała w niepamiętnych czasach. Pierwszy przewidział możliwość wybudowania „śmigłoskrzydlatych”, latających aparatów Leonardo da Vinci (1475 r): „Ja mówię, że kiedy ten sprzęt, zaopatrzony w śrubę, wykonany jest dobrze…i obraca się z odpowiednią prędkością…śruba wkręca się w powietrze i podnosi całość do góry”. To była idea helikoptera. Ale Leonardo da Vinci nie wiedział o momencie reakcji od obracającego się wirnika, nie podejrzewał, że takie urządzenie, nawet gdyby wystarczyło energii ludzkich mięśni, nigdy by nie poleciało, ponieważ obracałaby się przede wszystkim gondola, a nie wirnik, napotykający na duży opór powietrza.

M.W. Łomonosow w 1754 roku znalazł sposób rozwiązania tej sprzeczności, stworzywszy model „aerodynamicznej maszyny” – dwa poziomo położone wirniki, obracające się w przeciwne strony. Model unosił się w powietrzu, sprężynowy napęd wytworzył siłę ciągu 10G. W 1768 roku Anglik - Pengton wydał książkę „Teoria śruby Archimedesa”, w której opisał „śmigłoskrzydlaty” aparat ( pterofor): jeden wirnik dla podnoszenia, drugi dla ruchu postępowego. W 1782 roku Paryska Akademia Nauk wydała oświadczenie o niemożliwości latania aparatów cięższych od powietrza. W 1784 roku Francuzi: Christian de Launoy, i jego mechanik – Bienvenu wykonali model helikoptera i pokazali jego lot akademikom. Łopatki wirnika były zrobione z ptasich piór, dwa wirniki obracały się współosiowo: jeden nad drugim ( idea Łomonosowa, o której oni prawdopodobnie nie wiedzieli). W 1783 roku bracia Montgolfier wyprawili w powietrze pierwszy balon, który uniósł pierwszych aeronautów: ( koguta, kaczkę i barana); „powietrzne kule” na długo przykuły uwagę społeczności.

W 1842 roku Anglik Philips zbudował model parowego, odrzutowego helikoptera ( wirnik - koło Segnera), aparat utrzymywał się w powietrzu kilka minut. W 1871 roku Francuz - Alphonse Pénaud zbudował szereg lekkich, sprytnych modeli aparatów latających. Jeden z nich wpadł w ręce amerykańskich chłopców – braci: Orville’a i Wilbura Wright.

W 1870 roku A.N. Łodygin opracował „elektrolot” i zaproponował go francuskiemu komitetowi obrony – chciał pomóc Francuzom w wojnie z Prusakami; projekt helikoptera robił wrażenie – ciężar 8 T, moc silnika 300 KM! Dalej już dobrze znani: A.F. Możajski, bracia Wright i inni.

Jak widać, pierwsi budują potrzebę pojedynczy wybitni twórcy i dopiero stopniowo potrzeby w nowym ST stają się potrzebami socjalnymi. Sprzeczność pomiędzy aktualnym poziomem techniki i potrzebami społeczeństwa rozwiązuje wynalezienie pierwszego ST zdolnego do wykonywania pracy. Ale wraz z wynalezieniem nowego ST pojawiają się wymagania w stosunku do niego. Zmuszają nadal do rozwoju systemu. 6 października 1910 roku na torze wyścigów konnych w Petersburgu odbył się Wszechrosyjski festiwal aeronautyki. Ogólną uwagę przykuły złożone figury pilotażu akrobacyjnego w wykonaniu trzech rosyjskich asów lotnictwa: M. Jefimowa, L. Mancewicza i S. Utoczkina. I nagle na oczach wszystkich obecnych wydarzyło się nieszczęście: z kabiny samolotu wypadł i rozbił się na śmierć Lew Mancewicz. Wypadek wstrząsnął wszystkimi, ale dla jednego z widzów moment ten stał się życiowym przewrotem. Całe życie aktora Gleba Kotielnikowa od tego dnia zostało poświęcone wynalezieniu i ulepszaniu spadochronu – sprzętu do ratowania życia lotników.

Potrzeby społeczeństwa ustawicznie wzrastają ( prawo podnoszenia potrzeb), pojawiają się podwyższone wymagania w stosunku do systemu. Próba podniesienia GKF systemu napotyka na kolejną sprzeczność i rozwiązanie tego problemu prowadzi do kolejnego kroku w rozwoju ST. Tak z jednego, jedynego samolotu braci Wright powstał złożony hierarchiczny system – współczesne lotnictwo. Rzeczywiste potrzeby społeczeństwa należy odróżnić od wydumanych, sztucznych i po prostu głupich. Wg badań amerykańskiego socjologa W. Toflera, około 80% wszystkich produkowanych na początku wieku w USA towarów nie odpowiadała rzeczywistym potrzebom lub w ogóle nie była potrzebna społeczeństwu.

Za dowolnym, współczesnym ST stoją dziesiątki, setki, tysiące kolejnych ( ustawicznie rozwijających się ) wynalazków: podczas 100 – letniej historii motoryzacji dokonano w tym ST ponad milion wynalazków, dla roweru – ponad 100 tys., nawet dla takiego „systemu” jak ołówek – powyżej 20 tys.


Powiększenie GKF. Wszystkie wynalazki powiększają GKF systemu. Człowiekowi potrzebna jest dosłownie tylko „korzystna funkcja”, a nie sam system. Konieczność posiadania systemu – to „zapłata” za jego korzystną funkcję. Przykładowo: samochód jest przeznaczony do przewozu osób i towarów. Przy tym jednak jesteśmy zmuszeni – dosłownie zmuszeni! – „wozić” i sam samochód. Samochód będzie tym, idealniejszy, im mniejszy będzie jego ciężar własny, gabaryty i zużycie paliwa. Idealny samochód powinien składać się z jednej tylko kabiny pasażerskiej, lub jednego fotela, lub w ogóle „z niczego”. Ta tendencja rozwoju jest w pełni realna. Oto dane z pierwszych 40 lat wyścigów samochodowych: 1895 r. – masa samochodu na jednostkę mocy ( 1 KM) wynosiła 1000 kg; w 1896 r. – 166 kg/KM; 1897 r. – 100 kg/KM; 1899 65 kg/KM; 1900 r. 40 kg/KM; 1908 r. 10 kg/KM; lata 30. 4-5 kg/KM ( patrz. „Nowości Przemysłu Gumowego” 1938 T. 13 Nr 8 – 9 str 109). Dziś ta prawidłowość jest niemal niezauważalna, ponieważ dowolny zysk w ciężarze natychmiast jest wykorzystywany na podniesienie mocy i komfortu. Ale wzrost GKF mimo to jest zauważalny: wczorajsze samochody wyścigowe stały się seryjnymi.

GKF powiększa się nie tylko „wewnątrz” transportu samochodowego, ale i w bardziej ogólnym systemie – w transporcie. Przykładowo, prędkość transportu: konny – 30 – 40 km/h, kolejowy – 1 - 120 km/h, samochodowy – 20 – 200 km/h, lotniczy, na silnikach tłokowych – 50 – 800 km/h, odrzutowych 800 – 8000 km/h, rakiety na paliwo chemiczne – 3 – 70 tys. rakiety jądrowe (projekt) 8 tys. – 1 mln km/h. km/h.

GKF powiększa się także na wszystkich poziomach hierarchii. Przykładowo, sprawność przekształcania energii ( sprawność energetyczna) w silnikach: pierwsze maszyny parowe Newcomena miały sprawność η = 1 – 2 %, maszyny Watta – 2 – 4 %, ulepszone maszyny parowe 5 – 15%, maszyny parowy z potrójnym rozprężaniem pary 13 – 19%, pierwsze turbiny parowe – 17 – 30%, silniki wewnętrznego spalania 30 – 50%, termoogniwa ( przekształcenie energii chemicznej w elektryczną) – 45 – 60%.

Czynniki, przeszkadzające w powiększaniu GKF systemu, stają się przyczyną pojawienia się administracyjnej sprzeczności ( AS) – sprzeczności pomiędzy potrzebami, a możliwościami. Formułujemy sytuację wyjściową, definiujemy zadanie wynalazcze. Rozwiązanie zadania wynalazczego (rozwiązanie sprzeczności) posuwa ST naprzód, kompromis pozostawia system w miejscu. Z pomocą wynalazcy system „ucieka” przed krytyką. Gdzie i jak? ST dopasowuje się (adaptuje) do zmieniających się warunków. Proces ten podobny jest do biologicznej adaptacji: mutageneza ratuje biologiczny gatunek przed wymarciem w zmienionych warunkach środowiskowych; przezywają osobniki, które w rezultacie mutacji zyskały konieczne dla przetrwania właściwości. Prosty przykład: chcieliśmy wygrać wojnę z mikrobami z pomocą nowej broni - antybiotyków, ale przyroda odpowiedziała na nowe wyzwania pojawieniem się mikroorganizmów odpornych na lekarstwa; antybiotyki posłużyły jako czynnik selekcji - przeżyły te formy bakterii, które były uzbrojone w ochronne fermenty.

Masowa wynalazczość posługująca się metodą prób i błędów – to „techniczna mutageneza”; przeżywają, tj. przekształcają się z „papierowych patentów” w realne systemy tylko te ST, które w najwyższym stopniu są przystosowane do środowiska bytowania ( technosfery), do jej ekonomicznych, produkcyjnych i ekologicznych wymagań. Naturalnie, jeśli wynajdywać w zgodzie z prawami rozwoju ST, to trzeba wykonać nie tysiące, a dziesiątki, a może tylko jednostki prób i wynalazków.

Sprzeczności, ujawniające się przy próbach powiększenia GKF, okazują się być główną siłą napędową rozwoju techniki. Dobrze jest to widoczne w technice uzbrojenia: cała jej historia to ustawiczny pojedynek pomiędzy „mieczem”, a „tarczą”.

Rozpatrzymy krótko historię pojedynku pomiędzy okrętami wojennymi i artylerią1. W połowie XIX wieku odbyło się przejście od drewnianych okrętów do floty „parowej”. Mocne maszyny parowe pozwoliły wzmocnić opancerzenie. Równocześnie odbywało się ulepszanie okrętowej artylerii, pojawiły się miny i torpedy. W latach 1859 – 1860 zbudowano okręty nowego typu – pancerniki, zaopatrzone w pancerz o grubości stalowych płyt 100 – 125 mm. To wyzwało podniesienie kalibru i mocy artylerii, co swoją drogą doprowadziło do budowy okrętów o jeszcze grubszych pancerzach. Ten wyścig kalibru gładkolufowej broni i grubości pancerza trwał około 20 lat. W 1876 roku włoski pancernik Caio Duilio miał pancerz o grubości 540 mm, a w 1881, angielski Inflexible – 600 mm! Kaliber uzbrojenia sięgnął maksymalnej wielkości - 452 mm. Dalszy wzrost kalibru i grubości pancerza stał się już niemożliwy – bardzo spadła prędkość i manewrowość okrętów. Ilościowy wzrost parametrów ( dla powiększenia GKF) w obu systemach napotkał na obiektywne ograniczenia. Potrzebne były jakościowe zmiany artylerii i pancerza. W 80. latach pojawił się stalowo – żelazny pancerz – compound, pozwalający znacznie zmniejszyć grubość opancerzenia. Na okrętach zaczęto montować artylerię gwintowaną, której kaliber obniżył się do 280- 305 mm. W 1891 roku pojawiły się pancerne płyty „legirowane” niklem, w 1894 r. specjalna, chromoniklowo molibdenowa stal. To znów wymagało zwiększenia zdolności przebijania pancerzy przez artylerię. Ale proste zwiększenie kalibru już nic nie dawało: pociski po prostu rozbijały się przy uderzeniu o taki pancerz. Wynalazek admirała S.O. Makarowa rozwiązał ten problem: zaproponował nakładanie na pociski grotów z ciągliwej stali, żeby nie rozbijały się przy uderzeniu w pancerz. Wynalazek okazał się na tyle efektywny, że w 1900 roku wszystkie państwa przyjęły na uzbrojenie pociski z makarowskimi grotami. W początku XX wieku pancerniki eskorty miały pancerze o grubości 150 – 200 mm, a ich kadłuby były podzielone grodziami wodoszczelnymi dla powiększenia niezatapialności. Ale pojawiły się łodzie podwodne, nowe typy torped itd.

Wymagania formułowane przez człowieka w stosunku do systemów i sprzeczności, pojawiające się przy próbach powiększenia GKF, zawsze wymuszają pojawianie się nowych właściwości i funkcji w ST. W pierwszym okresie rozwoju – rozkręcania się ST – nowe, korzystne funkcje realizowane są przez nowe podsystemy. Przykładowo, próba powiększenia szybkości skrawania przy toczeniu (powiększenie GKF) spowodowała niepożądane przegrzewanie się noża; dla likwidacji przegrzewu, do noża wprowadzono podsystem chłodzenia: początkowo prosty, na przykład rurę cieplną dla odprowadzenia ciepła od płytki skrawającej ( patent 1 175 611), później do rury cieplnej dodano chłodne spojenie półprzewodnikowych materiałów ( patent 1 175 612).


Rys. 27
Proces rozkręcania systemu wyraźnie można zauważyć w różnych prostych ST i narzędziach. Przykładowo, w Anglii wyprodukowano śrubokręt z próżniowymi przyssawkami (uchwycenie i przytrzymanie śruby), wbudowanym silnikiem elektrycznym (50 – 1200 obr/min), wymiennymi grotami ( dla śrub o średnicach 0,4 – 7 mm) i elektronicznym sterowaniem. W patencie 1 214 495 opisane jest elektroniczne „autopióro”: posiada wmontowany czujnik siły nacisku i elektroniczny blok sterowania porcjami atramentu, podawanego w kapilarny kanał końcówki.

Do jakich granic biegnie rozkręcanie ST? Niekiedy proces ten zachodzi zbyt daleko – pojawiają się gigantycznie skomplikowane techniczne systemy ( „dinozaury” i monstra techniki). Przykłady: traktor na kołach – 65T, na gąsienicach – 9000 T, dźwig o zdolności podnoszenia 1360 T, ekskawator kroczący – 1300 T ( Wynalazca i racjonalizator – 1985 Nr 1 str. 31), agregat kotłowy dla Bieriezowskiej Hydroelektrostancji wysokości 117 m i o ciężarze 26 tys ton ( „Znanije siła” 1986 Nr 12 sdtr. 1 – 2 ).

Podczas wojny Niemcy wypuścili na pola walki partię czołgów („lądowych pancerników”), ciężar każdej maszyny wynosił 68 T! W pierwszej walce wszystkie zostały rozbite przez nasze ( rosyjskie T34 prz. tłum.) trzydziestki czwórki, w głównej maszynie spalił się syn konstruktora tych „monstrów” F. Porsche…

Paradoks gigantyzmu w technice polega na tym, że konstruktorzy próbują rozwiązać zadanie powiększenia GKF metodą „ głową w mur” drogą powiększenia mocy, zużycia resursów i energii, a nie droga wprowadzania nowych zasad i rozwiązań wynalazczych, dlatego takie ST szybko napotykają na obiektywne ograniczenia. Niewynalazcze rozwiązania prowadza do tego, co przykładowo w ekonomii nazwano prawem Groschsa : kto chce kupić komputer dwukrotnie szybszy – musi przygotować się na koszt cztery razy większy.

W przyrodzie w odróżnieniu od techniki, istnieją sztywne ograniczenia. Ustalono, przykładowo, że żądne zwierzę przez całą historię Ziemi nie mogło ważyć więcej niż 100T; jeśli by ważyło, załóżmy, 140 T, to powinno by składać się niemal wyłącznie z samych kości i oczywiście nie mogło by się ruszać ( patrz „Przyroda” 1987 Nr 2 str. 117)

I tak, techniczny system tym lepszy, im idealniejszy. Kosztem czego biegnie proces idealizacji? Zasadniczo możliwe są trzy drogi idealizacji STA po okresie rozkręcania: droga 1 – to powiększanie GKF systemu kosztem przekazania części funkcji do nadsystemu ( NS), droga 2 – podniesienie GKF kosztem dalszego rozwoju podsystemu, droga 3 – kosztem wykonywania części funkcji ST przez któryś z jego podsystemów i dalej – substancją. Wszystkie trzy drogi prowadzą w rezultacie do jednego – do nowego systemu STB , spełniającego tę samą GKF ale mająca bardzo małe M, G, E. Najkrótsza droga 3 – skręcanie ST do idealnej substancji, droga 2 dostatecznie jasna – stuktura ST prawie się nie zmienia, odbywa się ulepszanie wszystkich podsystemów: to jeden, to drugi PS (podsystem) powiększa swoją korzystną funkcje i te dodatnie zmiany składają się na powiększenie GKF całego systemu.

Zwijanie ST do idealnej substancji zaczyna się od łączenia funkcji: jeden z podsystemów zaczyna wypełniać funkcje sąsiedniego, który staje się zbyteczny i znika; jedna z substancji bierze na siebie wypełnianie funkcji drugiej substancji i ta druga substancja zostaje usunięta z ST.


Yüklə 1,06 Mb.

Dostları ilə paylaş:
1   ...   9   10   11   12   13   14   15   16   ...   21




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©muhaz.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin