//////

Heinrich Hertz (1857—1894) odkrył potem, że zwyczajne zakłócenia elektryczne — f iskry — mogą wytwarzać w pewnym oddaleniu pole i elektryczne. Dzięki temu nauczono się następnie wy­krywać i transmitować ogromnie różniące się długściami fale radiowe, poczynając od fal długich uży­wanych w telegrafie bez drutu, do krótkich — stoso­wanych w telewizji i radarze. Długościom fal odpo­wiadają częstotliwości, czyli liczby drgań na sekun­dę. Częstotliwości mierzy się w hercach, to jest okre­sach, czyli cyklach na sekundę; w kilocyklach, tysią­cach cykli na sekundę, czyli kilohercach; w megacy- klach, milionach cykli na sekundę, czyli megahercach. (Przy pobudzeniu cząsteczek i atomów powstają fale krótsze niż najkrótsze fale radiowe, fale zaś o jeszcze mniejszych długościach znajdujemy przy pobudzaniu jąder atomowych).

Przez większą część tego stulecia naukowcy — jak to powiada Kuhn — „upajali się paradygmatem” doskonaląc metody i instrumentację,  głównie jednak starając się uprawomocnić w katego- -i riach Newtona każde nowe ulepszenie czy postęp, i James Clerk Maxwell, którego teoria elektromagne­tyzmu otwierała nowe horyzonty inicjując nową szkołę myślenia, postarał się jednak — i to z powodze­niem przystosować zasadniczą matematyczną po­stać swej teorii do równań Lagrange’a, czyli alter­natywnego sformułowania pewników Newtona.Maxwellowska teoria pola elektromagnetycznego – dostarczała spójnego wyjaśnienia doświadczalnych ustaleń Coulomba, Ampere’a i Faraday’a oraz stano­wiła też zadowalające narzędzie matematyczne do pracy nad wyraźnie swoistymi cechami zjawisk elek­tromagnetycznych.

Teraz więc można wypowiedzieć to twierdzenie jako uniwersalne prawo przyrody i wobec tego nasz ktoś oświadcza katego­rycznie: „Żadne zwierzęta karmiące młode piersią nie składają jaj.” Lecz żadne naukowe prawo nie jest nigdy ostatecznie dowiedzione, z tej między innymi racji, że nie sposób poddać obserwacji wszystkich przypadków indywidualnych, do których owo’prawo ma się stosować. Wszelkie prawo w nauce jest od- woływalne, probabilistyczne i niewolne od niepew­ności może zawsze ulec rewizji w świetle nowych dowodow. Toteż w nauce żaden przewód badawczy me jest nigdy kompletny, i oto nasz ktoś wyrusza do Australii, aby kontynuować sprawdzanie teorii.

Po kilku latach burzliwego rozwoju sieci teleinformatyczne’ umożli­wiają korzystanie z:dziedzinowych systemów informacj i, jak EUDISED(europejski system dokumentacji i informacji w zakresie oświaty), systemów wielodziedzinowych, jak francuskie: FRAN­CIS (nauki społeczne i humanistyczne) oraz PASCAL (nauki ścisłe);   zautomatyzowanych katalogów centralnych, jak: RL1N (Research Libraries Information Network, centrum systemu Biblioteki Uniwersytetu Stanford w Kalifornii, obejmującego biblio­teki zachodniego wybrzeża USA).54Powyższe uwagi były niezbędne dla zarysowania rodzących się glo­balnych systemów informacji bibliotecznej, z którymi coraz częściej ma do czynienia pracownik biblioteki i współczesny czytelnik. Jeśli postawi­libyśmy pytanie „czy i jak komputer zmienia tradycyjną pracę biblioteka­rza?” musielibyśmy odpowiedzieć, że otwiera zupełnie nowe perspekty­wy w zakresie rejestracji zbiorów i korzystania z odległych, elektronicznych bibliotek.


 

Jak pisał B. Siemieniecki- upowszechnienie narzędzi informatyki w życiu społecznym ma swoje określone konsekwencje edukacyjne. Kom­puter jawi się nie tylko jako środek dydaktyczny, użyteczny w realizacji kształcenia równoległego, ale jest też potężnym środkiem wsparcia inte­lektualnego człowieka w podejmowanych przez niego badaniach nauko­wych. Pod koniec lat siedemdziesiątych UNESCO uruchomiło program pn. UNISYST (Unesco Information System), mający doprowadzić do koordy­nacji poczynań narodowych i międzynarodowych, zmierzających do utwo­rzenia i funkcjonowania globalnej sieci wymiany informacji, a także po­wołania światowych systemów informacji.W efekcie regionalnej współpracy uruchomiono pierwsze sieci infor­macyjne, jak EURONET-DIANE (europejska sieć zautomatyzowanych ośrodków informacji naukowej z dostępem do faktograficznych i biblio­graficznych baz danych) oraz NOSP (system informacji Karolińska Insti-tute w zakresie medycyny).

Dzięki gro­madzeniu faktów naukowych, przez które rozumie się zaobserwowane zdarzenia, opisane z uwzględnieniem czasu i miejsca wystąpienia – jed­nostkowa wiedza, zdobyta w trakcie realizacji procesu badawczego staje się ogólnodostępna i podlegać może intersubiektywnej sprawdzalności. O  tym, że komputer okazuje się nad wyraz przydatnym narzędziem edycyj­nym, że spełnia tę funkcję znacznie lepiej od tradycyjnej maszyny do pi­sania, nie trzeba przekonywać nikogo, kto choć raz spróbował pracować z wykorzystaniem edytora tekstu. Oprócz podstawowych typów działań, jak wstawianie lub usuwanie znaków, słów, akapitów, czy dowolnych blo­ków tekstu, programy edytorskie umożliwiają automatyzację prac nad tek­stem (sprawdzanie, przeszukiwanie, poprawianie, zamienianie), a praca z nimi przypomina raczej zapisywanie luźnych kartek, które można dowol­nie sklejać i powielać w całości lub fragmentach, aniżeli tradycyjne maszy­nopisanie.

Nie można przecież zaprzeczyć temu, że maszyny uczące, repetycyjne, egzaminacyjne, treningowe i komputery (umieszczone w gru­pie urządzeń automatyzujących proces kształcenia) również oddziałują sen- sorycznie. Z drugiej zaś strony telewizja, bez względu na to czy progra­mowa, czy w obwodzie zamkniętym, nie może być traktowana jedynie jako techniczny środek wzrokowo-słuchowy, przy równoczesnym niedostrze­ganiu, że także ona automatyzuje nauczanie (jeśli systematyzacja zawiera taką kategorię).Prawdą jest, że E. Berezowskiemu udało się pokonać ujawniane wcze­śniej problemy ze znalezieniem innego niż sumaryczne kryterium klasy­fikacyjnego. Jednakże, choć do urządzeń automatyzujących nauczanie nie zalicza się już: podręczników i tekstów programowanych, szablonów, wzorników, kart perforowanych i maszyn dydaktycznych, a dla urządzeń fonicznych, sygnalizacyjnych, laboratoriów językowych itd. tworzy się ;       grupę tzw. urządzeń specjalnych, to problem znalezienia precyzyjnego i    kryterium różnicującego pozostaje otwarty

Stosunek wielu nauczycieli do komputera przypomina nieco starą przy­powieść o sześciu ślepcach, którzy dotykając słonia w różnych miejscach wierzy/i, że mają do czynienia z liną, kocem, włócznią, wężem, drzewem i ścianą.    Komputer może być naukowym laboratorium, urządzeniem mstruktażowym, środkiem wspomagającym: zarządzanie, administrowanie czy te­stowanie, bądź wreszcie maszyną do pisania lub liczenia. Wielość funkcji, które komputer może pełnić wynika z tej prostej przyczyny, iż urządzenie to z istoty swej jest wykonawcą zaprogramowanych działań na informacji(słownej, cyfrowej, dźwiękowej, obrazowej itd.). ;Celowo użyłem tu sformułowania „urządzeniem instruktażowym , tj. przekazującym informacje, udzielającym wskazówek, objaśniającym.

Absolwenci szkół średnich oraz techników, mają coraz szerszy wybór różnego rodzaju kierunków studiów, zwłaszcza, że oferowane są im studia zarówno humanistyczne, jak i techniczne. Psychologia, europeistyka, dziennikarstwo – to tylko kilka kierunków, które cieszą się największym zainteresowaniem młodych osób. Obok nich jednak coraz częściej mówi się także o informatyce, kierunku bardziej techniczno – matematycznym, który wybierany jest jednak zarówno przez młodych mężczyzn, jak i przez kobiety. Z całą pewnością młode osoby doskonale zdają sobie sprawę z tego, że informatyka jest bardzo przyszłościowym kierunkiem studiów, zwłaszcza, że już teraz wiele osób może znaleźć po tym kierunku pracę. Informatyka jest dziedziną, która nie kształci już tylko i wyłącznie informatyków w ogólnym tego słowa znaczeniu, coraz częściej bowiem można kształcić się w określonym kierunku. Decydując się na studia na tym kierunku, można zatem zostać między innymi programistą, grafikiem komputerowym, administratorem sieciowym czy nawet inżynierem oprogramowania. Możliwości jest więc naprawdę wiele.

Zdarza się w życiu tak, że sprzęt, który posiadasz od wielu lat nagle odmawia całkowicie posłuszeństwa. Co w takim wypadku zrobić i jak przetrwać trudny kryzysowy moment naprawy. Nie będzie tajemnicą, że najlepiej uchronić się przed niemiłymi konsekwencjami zepsucia komputera trochę wcześniej poprzez stosowanie odpowiedniej profilaktyki. Każdy użytkownik powinien sobie uzmysłowić, że najważniejsze jest posiadanie sprzętu przynajmniej w dwóch egzemplarzach. Należy tez cyklicznie zgrywać dane na dyski zewnętrze, aby przypadkiem nie narazić się na ich utratę. Zdarza się to niestety całkiem często. Oczywiście ludzie o tym zapominają, a później podczas awarii nie mogą sobie wybaczyć własnej głupoty, ale prawda jest taka, że obsługa komputera osobistego nieodłącznie wiąże się właśnie z takimi czynnościami, które obowiązkowo trzeba wykonywać. Warto także od czasu do czasu przeczytać specjalistyczny artykuł o zachowaniu sprzętu w bezpieczeństwie przez wiele lat. Da się to zrobić i oczywiście jak zwykle nie można wydawać pieniędzy wyłącznie na tanie podzespoły. Im lepszy masz komputer, tym większa szansa, że długi ci posłuży bez szwanku. Nie żałuj pieniędzy, bo one są niczym w porównaniu do stresu, którego doznasz podczas awarii.

Uwzględ­nia ona spostrzeżenie, iż przy podwojeniu temperatu­ry absolutnej łączna ilość energii emitowanej na se­kundę z takiego otworka wzrośnie szesnastokrotnie, przy potrojeniu temperatury moc emisji mnoży się przez 81, itd. Teoria ta jest również w zgodzie z do­świadczalnym faktem, iż długość fali dla maksimum intensywności promieniowania zmienia się przeciwnie niż temperatura bezwzględna źródła: im jest ono go­rętsze, tym długość ta maleje. Teoria falowa nie pozwalała jednak uporać się z obserwowanymi faktami spoza opisanego zakresu zjawisk. Rozumując zgodnie z nią otrzymywało się w efekcie końcowym katastrofę w nadfiolecie. Nau­kowcy, którzy zazwyczaj boleją z powodu uganiania się za sensacjami w nauce, jako twórcy terminologii też potrafią sobie w tym względzie pofolgować. Zło­wrogie miano katastrofy w nadfiolecie znaczy tylko tyle, że ciało czarne powinno emitować całą swą energię w paśmie fal ultrakrótkich w jednym gwał­townym błysku.

Odwrotnie, potrzebna jest powierzchnia doskonale czarna, jeśli całe promieniowanie ma być pochłonięte. Jednakże ciało czarne nie tylko pochłania energię cieplną — emituje ją, acz nie przez odbicie, lecz wskutek akumulacji ciepła, tak że staje się coraz gorętsze i promieniuje w całym ciągłym widmie dłu­gości fal.Zachowanie ciała czarnego można odtworzyć eksperymentalnie zamykając intensywne źródło ciepła w odpowiednim pojemniku („piecu”) z malutkim otwo­rem. Eksperymentator może mierzyć (spektroskopem) składowe’ promieniowania emitowanego z otworu. Kiedy temperatura źródła wzrasta, rośnie też ilość wypromieniowanej energii oraz intensywność promie­niowania w paśmie fioletu. Teoria falowa Maxwella pozwala wyjaśnić pierwsze z tych ustaleń.

Właśnie w związku z częstotliwościami wyszła na jaw pewna słabość teorii falowej w sformułowaniu Maxwella, nie ze wszystkimi danymi z obserwacji okazała się ona zgodna. Jeśli ogrzewamy kawałek me­talu, to robi się oin ciemnoczerwony, potem jasnoczerwony i następnie biały. Ogrzewany jeszcze bardziej emituje promienie fioletowe i ultrafioletowe. Jest też jednak przypadek szczególny, znany jako „promienio­wanie ciała czarnego”. Zrozumiemy go rozważywszy, co się dzieje, gdy promieniowanie pada na nieprze­zroczystą powierzchnię. Część promieniowania zostaje pochłonięta, a część odbita. Gdyby powierzchnia była doskonale biała, całe promieniowanie zostałoby od­bite (dlatego właśnie aproksymując biel doskonałą nosimy w lecie jasnobarwne ubiory, wznosimy białe budynki i stasujemy powłoki aluminiowe na odzieży ognioochronnej i na ognioodpornych konstrukcjach).

Kiedy widzimy barwy czerwo­ne, długość fali promieniowania wynosi około 7000 angstremów,_ barwom zaś głębokiego fioletu odpowia­dają długości fal około 3500 angstremów. James Clerk Maxwell wykazał jednak, że promieniowanie nie ogra­nicza się do pasma widzialnego. Mamy w tym wi­dmie fale radiowe długości mili (od grzbietu do grzbietu) i — na drugim krańcu — promienie gamma z jądra atomu z falami o długościach równych ułam­kom angstrema. Drugim parametrem jest częstotli­wość promieniowania. (Pojęcie bynajmniej nieskom­plikowane. Popatrzcie na boję, jak skacze na mor­skiej fali, w górę i w dół: ilość podskoków w jed­nostce czasu określa częstotliwość fali.) W przy­padku światła widzialnego częstotliwość, czyli licz­ba drgań na sekundę, jest bardzo duża: kiedy wi­dzimy fiolet, siatkówka naszego oka odbiera około 1 000 000 000 000 000 drgań na sekundę.

Astronomiczne obserwacje planet i Słońca w czasie zaćmienia tego ostatniego dostar­czyły dowodów na poparcie einsteinowskiej koncepcji „przestrzeni zakrzywionej”. Z początkiem stulecia wyłaniać się począł inny jesz­cze paradygmat. Zainicjowało go coś, co można na­zwać „buntem ciała czarnego” przeciw Jamesa Clar­ka Maxwella teorii fal elektromagnetycznych. Jak wi­dzieliśmy, teoria ta też stanowiła w swoim czasie re­wolucję w nauce. Według teorii falowej światło jest okresowym drganiem elektromagnetycznym rozcho­dzącym się w przestrzeni (bez eteru). W przypadku promieniowania widzialnego długość fal określa sie w aingstremach, jednostkach 100 000 000 razy krót­szych od centymetra.