Posts Tagged ‘pisanie prac’

Zanim doszło do sformułowania terminu sztuczna inteligencja, zdarzyło się kilka istotnych wydarzeń. Modelowanie rzeczywistości77, bo tak należy grupowo nazwać tę dziedzinę, zainteresowanie którą doprowadziło do badań nad SI. Owo modelowanie to wybór tych elementów rzeczywistości, które przyjmiemy jako istotne dla danego zagadnienia, oraz określenie reguł działania które nimi rządzą [Białyniccy-Birula]. To dociekli­wość pewnych „wścibskich” naukowców doprowadziła do opisania kilku bardzo istotnych modeli, dzięki którym rozwiązano wiele problemów naukowych, szczególnie tych istotnych dla cybernetyki.

Jako najbardziej podstawowy przykład, przyjrzyjmy się „Grze w Życie”. John Horton Conway, stworzył najprostszy model procesu narodzin, ewolucji i śmierci. Oczywiście model ten dotyczy binarnej kolonii, zwanej umownie „kolonią bakterii”. „Gra w Życie” pozwala na określanie warunków która bakteria ma przeżyć, która umrzeć, a która uodpornić się na wirusa – w praktyce systemy tego typu są stosowane w wielu dziedzinach.

Kolejnym przykładem są osławione fraktale, o których się mówi dużo, każdy wie jak wyglądają, lecz mało kto wie czym one właściwie są… Fraktale, więc są to złożone figury samopodobne, tzn. takie które można podzielić na części, które są podobne do całości. Najbardziej znane z podstawowych fraktali to „krzywa Kocha”[1] [2], „trójkąt Sierpińskiego”[3], „żuk Mandelbrota”[4].

Obecnie fraktale są wykorzystywane m.in. właśnie do generowania grafiki fotopodobnej, do analizy pogody, analizy geologicznej (tzw. „krzywa wybrzeża” jest fraktalem) i wielu innych zastosowań.

Kolejnym, najistotniejszym chyba krokiem zbliżającym badaczy do SI, stało się zainteresowanie lingwistyką komputerową.

„Jak często może człowiek, po wymieszaniu liter w worku, wysypać

je na ziemię tak, by ułożyły się one w poemat?”

John Tillotson (XVII w.) [za: Białyniccy-Birula]

Lingwistyka komputerowa, zajmuje się m.in. tworzeniem programów komputerowych do przetwarzania języka naturalnego[5]. Badacze sztucznej inteligencji już dawno dopatrywali się właściwej drogi właśnie poprzez język naturalny. Właściwe zrozumienie, dlaczego człowiek rozumie to co mówią inni, choć nie jest to język tak „sztywny” jak np. zwykłe języki programowania, gdzie użytek słów i składni jest ekstremalnie ustalony i nie pozostawia prawie żadnego pola do improwizacji. Interesującym przykładem eksplorowania lingwistyki jest też praca z pogranicza sztuki i lingwistyki – „Manifest – Istota Przekazu” Arka Blomki. [zobacz: Blomka]

Kolejnym etapem w dochodzeniu do sztucznej inteligencji są sieci neuronowe, a właściwie „sztuczne sieci neuronowe”. Jak podaje Wikipedia: „Sieć neuronowa (sztuczna sieć neuronowa) to ogólna nazwa struktur matematycznych i ich programowych lub sprzętowych modeli, realizujących obliczenia lub przetwarzanie sygnałów poprzez rzędy elementów wykonujących pewną podstawową operację na swoim wejściu, zwanych neuronami. Oryginalną inspiracją takiej struktury była budowa naturalnych układów nerwowych, w szczególności mózgu.”[6] W skrócie można powiedzieć, że sieć neuronowa to sztuczny system symulujący mózg – dzięki algorytmom, próbujący radzić sobie z zadaniami takimi jak kojarzenie i rozpoznawanie, czyli takimi, z którymi „zwykłe” (nawet super­szybkie) komputery nie dadzą sobie rady.


[1]  Oczywiście sprawy związane z rzeczywistością wirtualną mają przebieg zupełnie odwrotny – najpierw tworzymy model projektowanej VR, następnie określamy reguły w nim panujące i dopiero wtedy możemy poświęcić się obserwacji.

[2]  Helge von Koch (1870-1924) – szwedzki matematyk, twórca jednego z najbardziej znanych i zarazem jednego z pierwszych fraktali – krzywej Kocha (opisana w „Une methode geometrique elementaire pour letude de certaines questions de la theorie des courbes plane” w 1906 roku). Napisał wiele prac na temat teorii liczb, zajmował się hipotezą Riemanna. [za: Wikipedia (pl), zob.: krzywa Kocha [on-line] pl.wikipedia.org/wiki/Krzywa Kocha (26.06.2006)]

[3]  Wacław Sierpiński (1882-1969) – polski matematyk [zob.: trójkąt Sierpińskiego [on-line] http://pl.wikipedia.org/wiki/Tr%C3%B3jk%C4%85t Sierpi%C5%84skiego (26.06.2006)]

[4]  Benoit B. Mandelbrot (ur. 1924, w Warszawie) – francuski matematyk, pochodzenia polskiego [za: Wikipedia (pl), zob.: zbiór Mandelbrota [on-line] pl.wikipedia.org/wiki/Zbi%C3%B3r Mandelbrota (26.06.2006)]

[5]  za: pl.wikipedia.org/wiki/Lingwistyka komputerowa (6.06.2006), zobacz też: nlp.ipipan.waw.pl/CLIP/ (6.08.2006)

[6]  za: pl.wikipedia.org/wiki/Sie%C4%87 neuronowa (10.08.2006), zobacz też: neuron.kylos.pl/ (10.08.2006)

Osobną sprawą jest konieczność magazynowania wytworzonej przez elektrownię wiatrową energii. Spowodowane jest to tym, że generatory prądu pracują średnio na poziomie 25% zainstalowanej mocy, a ich czas pracy wynosi przeciętnie 5000 h/rok. Aby więc móc w sposób ciągły korzystać z energii wytworzonej  przez EWi, zwłaszcza wtedy gdy siłownia nie pracuje, niezbędne okazuje się magazynowanie energii.

Najczęściej stosuje się w tym celu akumulatory, jednak trzeba się wtedy liczyć z tym, że zmagazynować można ograniczoną ilość energii, a dodatkowo mamy do czynienia z pewnymi stratami pozyskanej energii.

Dość często stosowanym sposobem jest wykorzystywanie nadprodukcji energii do elektrolizy wody, w wyniku czego wytwarza się wodór. Posłuży on następnie do napędzania turbiny w bezwietrzne dni lub przy zbyt porywistych wiatrach, które uniemożliwiają  i bezpieczną pracę wiatraka. Jest to rozwiązanie hybrydowe i jest zazwyczaj związane z dowolnym nośnikiem energii, który zapewnia  stabilną  pracę elektrowni wiatrowej.

Kolejnym hybrydowym rozwiązaniem, stosowanym w przypadku gdy wykorzystuje się energię wiatru bezpośrednio w celach grzewczych,  jest odprowadzanie energii cieplnej do gruntu i magazynowanie jej w ten sposób. Odzyskiwanie tej energii umożliwiają pompy ciepła.

Chcąc uzyskać w prosty sposób efektowne obrazy można skorzystać z filtrów komputerowych. Najnowsza generacja komputerów
osobistych z dużymi pamięciami i superszybkimi procesorami, które potrafią uczynić ze zwykłych zdjęć prawdziwe arcydzieła, otwiera nowe możliwości manipulowania obrazem.
Pierwszym etapem jest wykorzystanie skanera laserowego, za pomocą którego przenosimy obraz przezrocza, negatywu lub odbitki do komputera. Skaner potrafi wytworzyć reprodukcję oryginału, umożliwia rejestrację jego rozkładu barw, gęstości i kontrastu obrazu. Następnie wykorzystując odpowiednie oprogramowanie stosujemy retusz komputerowy. Przetwarzanie skanowanego obrazu różnego rodzaju filtrami zniekształca w pewien sposób piksele*, tworząc obraz na ekranie monitora.
Stosując technikę komputerową można uzyskać ciekawe rezultaty. Oprócz różnego rodzaju filtrów można posłużyć się retuszem komputerowym, zmieniając barwy danego obrazu. Po uprzednim zeskanowaniu zmienia się wygląd fotografii i wzmacnia szczegóły w określonych strefach w bardzo subtelny sposób.
Techniki te obejmują zmianę barwy, przetworzenie kompozycji obrazu, komputerowe wycinanie i wklejanie fragmentów obrazu.
Coraz to nowe edycje oprogramowania oraz postęp w dziedzinie budowy komputerów, spowodowały, że możliwości komputerowego przetwarzania obrazu stały się teraz bardzo duże.
Jedynym ograniczeniem jest tylko wyobraźnia człowieka i jego umiejętności posługiwania się sprzętem. Zaczyna zacierać się granica między retuszem, mającym naprawić drobne błędy, a tworzeniem nowego obrazu. Komputerowe funkcje zmiany barw obejmują możliwości zmiany całego obrazu, względnie wybranych obszarów, takich jak zmiana tła, na którym jest osadzony dany obiekt. Jeżeli pewien obszar zostanie zaznaczony, to możemy zmieniać jego barwę lub tonalność, obserwując ekran monitora.
Możemy śmiało powiedzieć, że przyszłość fotografii następnego wieku uzależniona będzie od komputera, gdyż za jego pomocą można dokonać masy przeróżnych transformacji obrazu, zmiany retuszu barw, nakładania obrazów, przekształcania w dowolny sposób, urozmaicania wnętrza o nieraz nierealne szczegóły, ale jakże nieodzowne, nadające nowy charakter zdjęciu.
A więc jak będzie wyglądał świat „nowej” fotografii przyszłego wieku ?

Niektórzy twierdzą, że ingerencja w obraz jest niepotrzebna, gdyż oddaje nieprawdziwość stworzoną sztucznie przez program komputerowy i zmienia postać rzeczy, okłamując tym samym odbiorcę, przekazując wyimaginowaną treść nie mającą nic wspólnego z rzeczywistą formą obrazu. Jest to na swój sposób zmylenie kompozycji, które ma sprawiać wrażenie czegoś nowego, twórczego, bogatszego w treść, nie tylko w formę. Wkraczając w nową rzeczywistość, również w codziennym życiu często zadajemy sobie pytanie, jak będziemy wyglądać w przyszłości. Może właśnie tak jak fotografia, pełni perfekcji, okazalsi i bardziej atrakcyjni, stojący naprzeciw nieznanemu wymiarowi wirtualnego świata, w którym przyjdzie nam żyć.
Kolejną możliwością uzyskania nieistniejącego w rzeczywistości obrazu jest fotomontaż komputerowy. Rozpowszechnienie manipulowania obrazem z wykorzystaniem oprogramowania komputerowego staje się coraz bardziej widoczne. Każdy obraz, który zostaje umieszczany na plakatach reklamowych, w czasopismach, w ogłoszeniach, bądź prasie codziennej jest zmieniany w ten sposób. Rezultaty często wywołują duże wrażenie i wraz z marką fabryczną wyrobu utrwalają się w pamięci. Inne sposoby
wspomagania komputerowego manipulowania obrazem są bardziej subtelne, przykładowo  idealnie gładką skórę nóg modelki reklamującej pończochy otrzymuje się, nakopiowując na zdjęciu fragmenty skóry bez skazy w miejsca wykazujące wady. Za
pomocą tej techniki można na przykład rozjaśnić dany obraz i przenieść w inne miejsce na ekranie komputera, a następnie umiejętnie wkleić go w drugi obraz. W ten sposób powstają ciekawe fotografie, złożone z wielu elementów poszczególnych ujęć razem ze sobą powiązanych, stanowiących wspólną całość. Fotomontaż komputerowy stosowany jest już teraz powszechnie dzięki zastosowaniu metody wytnij i wklej.
Metamorfoza to kolejna technika komputerowa, która zmienia obraz w zaskakujący sposób. Stosując odpowiednio nakładanie obrazów możemy np. zmienić „psa w kota”. Wyobraźmy sobie, jak to wygląda; kluczowe cechy wyróżniające jednego obrazu (w tym wypadku pysk psa) zostały ustalone w postaci stałych punktów odniesienia. Punkty te ukazywały się następnie automatycznie na drugim obrazie (pysk kota) i były zgrywane z innymi odpowiadającymi cechami wyróżniającymi, jak uszy, oczy. Używając tych punktów odniesienia, komputer nakładał na siebie te dwa obrazy poprzez założoną liczbę kadrów sekwencji. W ten sposób otrzymaliśmy przejście pomiędzy cechami zewnętrznymi psa i kota i przemienialiśmy je w jedno, bądź drugie, w zależności od naszego upodobania. W ten sposób można postępować z dowolnym obrazem zmieniając poszczególne jego cechy i strukturę, dostosowując go do innego obrazu.

W 1839 roku Louis Mandé Daguerre w Paryżu i William Henry Fox Talbot w Londynie zademonstrowali swoje osiągnięcia, które dały początek fotografii. Oba procesy – dagerotypia i kalotypia należą do metod przeszłości, mogą być one jednak punktem wyjścia do poznawania procesów, jakie zachodzą przy wykonywaniu fotografii (zdjęcia). Świat przyznał pierwszeństwo dagerotypii. Zadecydował być może o tym fakt, że dagerotypia nie była osłonięta żadnymi tajemnicami i patentami, a wynalazek ten został ofiarowany ludzkości. I chociaż dagerotypia przetrwała zaledwie dwadzieścia lat, wyparta przez mokry proces kolodionowy, to jednak z datą jej ogłoszenia wiąże się rocznicę wynalazku fotografii.
Dzięki metodzie Daguerre’a zachowały się pierwsze fotografie ludzi tamtej epoki. Do naszych czasów przetrwały dagerotypy Chopina i Mickiewicza. Początkowo metodą tą uzyskiwano obrazy fotograficzne na miedzianej, posrebrzanej płytce w postaci pozytywu odwróconego (lustrzanego). Późniejsze modele aparatów były wyposażone w lustro do odwracania obrazów. Dagerotypy było można oglądać, ale pod pewnym kątem. Same płyty, które należało później odpowiednio spreparować, były produkowane fabrycznie i miały znormalizowany format, od 21,6 x 16,2 cm do mniejszych, stanowiących wynik ich podziału, choć można spotkać również okrągłe lub o nietypowych wymiarach, służące do zdjęć stereoskopowych[1]. Grubość tych blaszek wahała się od 1/4 do 1/3 mm.
Dagerotypy, jako rzeczy drogie były oprawiane w specjalne światłoszczelne, często bardzo ozdobne etui. Mógł sobie na nie pozwolić jedynie ktoś o ustabilizowanej pozycji materialnej i społecznej. Dziś dagerotypy są już unikatami w dosłownym tego słowa znaczeniu.


[1] Stereografia – fotografia trójwymiarowa – polega na wykonaniu dwóch zdjęć, tzw. stereopary, za pomocą dwóch równoległych obiektywów. Osie optyczne tych obiektywów są od siebie odległe o wielkość zwaną bazą, zbliżoną do rozstawu źrenic człowieka (65 mm). Jedno zdjęcie będące elementem stereopary odpowiada temu, co widzi oko lewe, drugie temu, co widzi oko prawe. Przeglądając następnie w odpowiedni sposób stereoparę (w przeglądarce stereoskopowej, itp.) uzyskujemy wrażenie istnienia na zdjęciu trzeciego wymiaru. W przypadku fotografowania przedmiotów ruchomych oba zdjęcia stereopary muszą być wykonane jednocześnie, w przypadku fotografii przedmiotów statycznych nie jest to konieczne, ale obiektywy aparatów stereoskopowych mają sprzężone migawki i przysłony. W stereografii naukowej (lotniczej, astronomicznej), baza może być wielokrotnie większa, aż do kilku kilometrów. „Katalog FOTO KAMERY ŚWIATA”, (rocznik, nr1) s.25, wyd. Prego, Warszawa 1997

Zmysł wynalazczy człowieka oraz sprawność jego rąk stworzyły urządzenie, nazwane aparatem fotograficznym. Nim stał się on jednak niezastąpionym pomocnikiem w nauce, procesach badawczych, sztuce, technice, historii czy rozrywce, przyrządem który najwierniej pozwala utrwalić elementy wizualne otaczającego nas świata, miał swój początek w postaci – kamery obskury, ciemni optycznej (łac. camera obscura), urządzenia tyleż niezwykłego, co prostego.
Kamera obskura jest to całkowicie zaciemniona, zamknięta ścianami przestrzeń. W jednej ze ścian znajduje się odpowiedniej wielkości, niewielki otwór. I to wystarczy, aby na przeciwległej ścianie, powstał obraz przedmiotów, dobrze oświetlonych,
znajdujących się na zewnątrz. Odbite od nich promienie światła, przechodzą przez otwór, krzyżują się i dają płaski, kolorowy obraz rzeczywisty, odwrócony i zmniejszony. Maksymalną ostrość obrazu uzyskuje się przy proporcjach 1:300, np. gdy przy średnicy otworu 0,5 mm tylna ściana, na której powstaje obraz, jest oddalona o 15 cm.

Już Arystoteles w IV w. p.n.e. znał zjawisko „powstawania” obrazów. Zaobserwował, że promienie świetlne podczas zaćmienia Słońca, przedostając się między liśćmi drzew, tworzą na ziemi obraz Słońca w postaci sierpa. Jednak o prototypie aparatu fotograficznego można mówić dopiero w odniesieniu do kamery obskury, której niezwykłe możliwości zaczęto wykorzystywać powszechnie w XVII wieku.