DPI – (ang. „dots per inch”) – w tłumaczeniu na język polski „punktów na cal”

1 cal = 25,4 mm = 2,54 cm

Tyle tytułem wstępu.

Zdawałoby się proste i nie pozostawiające marginesu na wątpliwości, a jednak…

Zacznijmy od próby określenia elementu zwanego „punkt”.

Dla aparatu cyfrowego, skanera, ekranu monitora – punkt nazywamy pikselem. Jest to najmniejszy element jaki te urządzenia są w stanie odwzorować. Piksel opisany jest jeszcze dodatkowymi informacjami takimi jak jasność czy barwa. W przypadku wymienionych urządzeń piksel może reprezentować jeden z 256 odcieni szarości lub jedną z ponad 16 milionów barw. I wszystko byłoby dalej proste gdyby nie drukarki atramentowe. Drukarka taka, aby wydrukować jeden piksel dla – przykładu szary – robi to za pomocą odpowiednio umieszczonych czarnych punkcików na białym tle papieru. Zazwyczaj czyni to w tablicy o wymiarach 16×16 punktów. Wynika z prostego obliczenia (16×16), że drukarka drukująca piksel o barwie czarnej wydrukuje 256 „swoich” punktów. Wróćmy zatem do głównego tematu. Jednostka DPI mówi, ile punktów można „upchnąć” w linii o długości 1 cala. Dla przykładu rozdzielczość 300 DPI oznacza, że w linii o długości 1 cala (2,54 cm) mieści się 300 punktów. Tyle, że wspomniana drukarka atramentowa postawi faktycznie w jednocalowej linii 300×16=4800 punktów.

Podany przeze mnie przykład 300 DPI nie jest przypadkowy. Otóż chcąc otrzymać dobrą jakościowo odbitkę fotograficzną z aparatu cyfrowego trzeba zapewnić taką właśnie rozdzielczość. Poniższym przykładem spróbuję to zilustrować.

Chcemy wykonać w fotolabie odbitki fotograficzne o wymiarach 10 cm x 15 cm. Jak zatem ustawić aparat cyfrowy? Policzmy…
Dla uproszczenia przyjmujemy, że cal ma dokładnie 2,5 cm.

Przeliczamy wymiar fotografii z cm na cale:

  • 10cm / 2,5 = 4 cale
  • 15cm / 2,5 – 6 cali

Do osiągnięcia dobrej jakości potrzebujemy 300 punktów na jeden cal czyli:

  • 4 cale x 300 = 1200 punktów
  • 6 cali x 300 = 1800 punktów

Aparat cyfrowy powinien zapewnić zatem rozdzielczość 1800×1200 punktów. Jeśli nasz aparat cyfrowy nie posiada takiej, albo podobnej rozdzielczości musimy przygotować obraz sami w programie graficznym, lub zdać się na pracę fotolabu (czego bardzo nie polecam). Maszyna w fotolabie skalując obraz do 300 DPI (czyli do rozdzielczości policzonej wyżej) nie robi nic poza tym skalowaniem. Skalowanie ma to do siebie, że przeważnie „gubi” ostrość. Efekt może być bardzo różny.

Pozostaje do wyjaśnienia jeszcze jeden problem. Kupując atramentową drukarkę fotograficzną czytamy w parametrach technicznych: rozdzielczość 4800 DPI. Zastanawiamy się wtedy – po co? Przeciez zupełnie wystarczy 300. Z całego zamieszania najlepiej skorzystali marketingowcy 🙂 Przypominam, że drukarka, aby wydrukować 1 punkt drukuje raster 16×16 (256) „swoich” punkcików. Zatem wykonując obliczenie 4800 / 16 = 300 sprawa staje się jasna. To marketingowe 4800 DPI odpowiada 300 DPI u maszyny fotograficznej.

Na zakończenie kilka słów o tzw. informacji EXIF. Pliki graficzne (np. jpeg) pochodzące z aparatów cyfrowych zawierają często informacje dotyczące różnych parametrów obrazu (paleta kolorów, rozdzielczość, parametry ekspozycji, model aparatu, itp). Na tej liście znajduje się tez parametr DPI. Zawsze czytając EXIF pliku graficznego zastanawiam się – po co?. Co mi daje określenie DPI bez kontekstu wymiarów fizycznych odbitki foto? Otóż dokładnie… NIC.

Często jestem świadkiem rozmów osób oglądających swoje cyfrowe zdjęcia licytujących się „czyj aparat robi lepsze DPI” :). DPI można rozpatrywać w odniesieniu do odbitki fotograficznej, wydruku, czy wymiaru wyświetlanego obrazu na monitorze komputera, ale nigdy samo. Pliki z różnych aparatów zawierają różne „ciekawe” informacje o DPI. Dla przykładu Mój Canon EOS 300D zawsze podaje 180 DPI, Olympusy 144 DPI… Hmmm… Z przykrością stwierdzam (może tu rozczaruję kilka osób), że ta informacja w pliku EXIF jest całkowicie bezużyteczna. Co byśmy nie robili, to nasz monitor i tak jest w stanie wyświetlić obraz w rozdzielczości 72-78 DPI (zależy od modelu).

Kiedyś zaniosłem do jednego z fotolabów pliki do wykonania odbitek. Laborant zerknął na EXIF i powiedział: „marnie wyjdzie… Tylko 180 DPI). No cóż… Tym „optymistycznym” akcentem kończę artykuł zdając sobie sprawę, że na pewno nie wyczerpałem tematu, a Panu laborantowi gratuluję dobrego samopoczucia 🙂 W końcu mógł nie wiedzieć nawet co to jest EXIF…

Zanim doszło do sformułowania terminu sztuczna inteligencja, zdarzyło się kilka istotnych wydarzeń. Modelowanie rzeczywistości77, bo tak należy grupowo nazwać tę dziedzinę, zainteresowanie którą doprowadziło do badań nad SI. Owo modelowanie to wybór tych elementów rzeczywistości, które przyjmiemy jako istotne dla danego zagadnienia, oraz określenie reguł działania które nimi rządzą [Białyniccy-Birula]. To dociekli­wość pewnych „wścibskich” naukowców doprowadziła do opisania kilku bardzo istotnych modeli, dzięki którym rozwiązano wiele problemów naukowych, szczególnie tych istotnych dla cybernetyki.

Jako najbardziej podstawowy przykład, przyjrzyjmy się „Grze w Życie”. John Horton Conway, stworzył najprostszy model procesu narodzin, ewolucji i śmierci. Oczywiście model ten dotyczy binarnej kolonii, zwanej umownie „kolonią bakterii”. „Gra w Życie” pozwala na określanie warunków która bakteria ma przeżyć, która umrzeć, a która uodpornić się na wirusa – w praktyce systemy tego typu są stosowane w wielu dziedzinach.

Kolejnym przykładem są osławione fraktale, o których się mówi dużo, każdy wie jak wyglądają, lecz mało kto wie czym one właściwie są… Fraktale, więc są to złożone figury samopodobne, tzn. takie które można podzielić na części, które są podobne do całości. Najbardziej znane z podstawowych fraktali to „krzywa Kocha”[1] [2], „trójkąt Sierpińskiego”[3], „żuk Mandelbrota”[4].

Obecnie fraktale są wykorzystywane m.in. właśnie do generowania grafiki fotopodobnej, do analizy pogody, analizy geologicznej (tzw. „krzywa wybrzeża” jest fraktalem) i wielu innych zastosowań.

Kolejnym, najistotniejszym chyba krokiem zbliżającym badaczy do SI, stało się zainteresowanie lingwistyką komputerową.

„Jak często może człowiek, po wymieszaniu liter w worku, wysypać

je na ziemię tak, by ułożyły się one w poemat?”

John Tillotson (XVII w.) [za: Białyniccy-Birula]

Lingwistyka komputerowa, zajmuje się m.in. tworzeniem programów komputerowych do przetwarzania języka naturalnego[5]. Badacze sztucznej inteligencji już dawno dopatrywali się właściwej drogi właśnie poprzez język naturalny. Właściwe zrozumienie, dlaczego człowiek rozumie to co mówią inni, choć nie jest to język tak „sztywny” jak np. zwykłe języki programowania, gdzie użytek słów i składni jest ekstremalnie ustalony i nie pozostawia prawie żadnego pola do improwizacji. Interesującym przykładem eksplorowania lingwistyki jest też praca z pogranicza sztuki i lingwistyki – „Manifest – Istota Przekazu” Arka Blomki. [zobacz: Blomka]

Kolejnym etapem w dochodzeniu do sztucznej inteligencji są sieci neuronowe, a właściwie „sztuczne sieci neuronowe”. Jak podaje Wikipedia: „Sieć neuronowa (sztuczna sieć neuronowa) to ogólna nazwa struktur matematycznych i ich programowych lub sprzętowych modeli, realizujących obliczenia lub przetwarzanie sygnałów poprzez rzędy elementów wykonujących pewną podstawową operację na swoim wejściu, zwanych neuronami. Oryginalną inspiracją takiej struktury była budowa naturalnych układów nerwowych, w szczególności mózgu.”[6] W skrócie można powiedzieć, że sieć neuronowa to sztuczny system symulujący mózg – dzięki algorytmom, próbujący radzić sobie z zadaniami takimi jak kojarzenie i rozpoznawanie, czyli takimi, z którymi „zwykłe” (nawet super­szybkie) komputery nie dadzą sobie rady.


[1]  Oczywiście sprawy związane z rzeczywistością wirtualną mają przebieg zupełnie odwrotny – najpierw tworzymy model projektowanej VR, następnie określamy reguły w nim panujące i dopiero wtedy możemy poświęcić się obserwacji.

[2]  Helge von Koch (1870-1924) – szwedzki matematyk, twórca jednego z najbardziej znanych i zarazem jednego z pierwszych fraktali – krzywej Kocha (opisana w „Une methode geometrique elementaire pour letude de certaines questions de la theorie des courbes plane” w 1906 roku). Napisał wiele prac na temat teorii liczb, zajmował się hipotezą Riemanna. [za: Wikipedia (pl), zob.: krzywa Kocha [on-line] pl.wikipedia.org/wiki/Krzywa Kocha (26.06.2006)]

[3]  Wacław Sierpiński (1882-1969) – polski matematyk [zob.: trójkąt Sierpińskiego [on-line] http://pl.wikipedia.org/wiki/Tr%C3%B3jk%C4%85t Sierpi%C5%84skiego (26.06.2006)]

[4]  Benoit B. Mandelbrot (ur. 1924, w Warszawie) – francuski matematyk, pochodzenia polskiego [za: Wikipedia (pl), zob.: zbiór Mandelbrota [on-line] pl.wikipedia.org/wiki/Zbi%C3%B3r Mandelbrota (26.06.2006)]

[5]  za: pl.wikipedia.org/wiki/Lingwistyka komputerowa (6.06.2006), zobacz też: nlp.ipipan.waw.pl/CLIP/ (6.08.2006)

[6]  za: pl.wikipedia.org/wiki/Sie%C4%87 neuronowa (10.08.2006), zobacz też: neuron.kylos.pl/ (10.08.2006)

Niniejszy rozdział przytacza definicję usługi multimedialnej oraz zawiera omówienie tej definicji w kontekście tematyki pracy. Mimo, iż definiowane pojęcie jest zrozumiałe intuicyjnie, ścisłe definicja konieczna była dla klarowności wywodu.

Poniższe definicje należy oczywiście rozpatrywać w kontekście usługowym sieci VOIP.

  • Usługa multimedialna

Usługa multimedialna w znaczeniu telekomunikacyjnym to każda usługa, która oparta jest na przetwarzaniu strumieni cyfrowych audio/video i nie jest podstawową usługą telefonii.

Wg powyższej definicji usługa multimedialna stanowi zatem poszerzenie tradycyjnej usługi telefonii, rozumianej jako usługa przenoszenia głosu w połączeniach dwustronnych, o dodatkowe funkcjonalności oparte na przetwarzaniu dźwięku i obrazu.

Dla bardziej ścisłej definicji można przyjąć, iż:

Usługa multimedialna w znaczeniu telekomunikacyjnym to każda usługa, której świadczenie obejmuje wykorzystanie jednej lub kilku z poniższych funkcjonalności:

  • Przesyłanie strumieni danych cyfrowych audio/video[1] [2] [3] do terminali użytkowników:

o Odtwarzanie komunikatów głosowych – np. zsyntetyzowanych za pomocą łączenia kilku nagranych dźwięków lub z wykorzystaniem silników syntezy mowy (TTS – Text To Speech), lub zawartych w pliku audio

o Odtwarzanie plików audio/video (zapisanych w różnych formatach, np wav , mov , mpg etc)

o Odtwarzanie sygnałów sygnalizacji abonenckiej – tone playing (sygnał zgłoszenia centrali, sygnał zajętości, sygnał wybierania etc).

  • Rejestrowanie strumieni audio/video (do różnych formatów plików – wav, mov, mpg etc)
  • Zarządzanie typem odbieranych/wysyłanych strumieni multimedialnych – odbieranie/wysyłanie w danej chwili tylko strumienia audio/video, obu typów strumieni, płynne przechodzenie pomiędzy trybami[4] [5] [6] [7]
  • Operacje na strumieniach audio/video:

o Miksowanie strumieni audio/video (połączenia wielostronne, konferencyjne)

o Zmiana głośności strumienia audio

o Transkodowanie pomiędzy strumieniami danych audio/video kodowanymi różnymi kodekami

  • W połączeniach dwustronnych
  • W konferencjach (przy miksowaniu)
  • Przy nagrywaniu / odtwarzaniu (np. gdy dane w pliku są kodowane innym kodekiem niż wspierany przez terminal użytkownika)

o Funkcjonalność Text-To-Video (TTV), Text-Insertion-In-Video – dodawanie tekstu do strumienia video tak, aby widoczny był podczas odtwarzania

  • Funkcjonalność IVR
  • Funkcjonalność TTS / ASR
  • Pobieranie cyfr i symboli od abonenta (DTMF collection)

o W paśmie – Inband[8]

o Poza pasmem – Outband[9] [10] [11]

  • Połączenia konferencyjne (głosowe i video)
  • Proste (połączenie trójstronne, multiparty call)
  • Złożone – dla N uczestników

o Zaawansowana funkcjonalność konferencyjna i zarządzanie telekonferencjami (floor control)

  • Kopiowanie treści (Lawful Interception) – jest to funkcjonalność w ramach systemów telekomunikacyjnych, która pozwala na kopiowanie przesyłanych danych oraz podsłuchiwanie rozmów telefonicznych. Wymuszana zwykle przez regulacje prawne w danym państwie/organizacji. W kontekście multimediów oznacza kopiowanie strumieni multimedialnych na potrzeby późniejszego odtwarzania ich i śledzenia przebiegu oraz treści połączenia. Wyróżnia się europejską specyfikację architektury LI (wg ETSI) oraz amerykańską (CALEA[12])

Każdy z elementów powyższego zbioru można potraktować jako swego rodzaju blok funkcjonalny czy też obiekt klasy „funkcjonalność multimedialna”, wykorzystywany do budowy bardziej złożonych usług multimedialnych. Należy podkreślić, iż poszczególne bloki mogą zawierać szereg cechujących je „wewnętrznych” funkcjonalności. Przykładowo dla odtwarzania komunikatów audio można wyróżnić:

  • modyfikowanie komunikatów (zmiana treści, czasu trwania, głośności etc.)
  • dynamiczne generowanie komunikatów różnego typu (np. komunikowanie daty, godziny, kwoty pieniężnej, liczby, ciągu cyfr)
  • odtwarzanie komunikatów w różnych językach
  • odtwarzanie komunikatów zlokalizowanych w podanym miejscu w sieci (serwer HTPP, serwer FTP, serwer NFS)
  • rozpoczynanie odtwarzania ze wskazanym opóźnieniem, dołączanie do komunikatu nagranej przez abonenta sekwencji
  • odtwarzanie sekwencji komunikatów, powtarzanie ich i zapętlanie
  • wspieranie funkcjonalności SIP Early media[13]

Podobnie pobieranie cyfr i symboli poprzez DMTF obejmuje szereg opcji:

  • pobieranie pojedynczych cyfr lub sekwencji cyfr
  • definiowanie maksymalnego czasu oczekiwania na pierwszą wprowadzaną cyfrę
  • definiowanie maksymalnego interwału między dwoma podawanymi cyframi (Inter-digit timer)
  • definiowanie symboli specjalnych (np. „#”) celem oznaczania końca wprowadzanej sekwencji
  • blokowanie DTMF – tzw. DTMF clamping, czyli usuwanie tonów DTMF ze strumienia audio pochodzącego od terminala tak, aby np. nie były one nagrywane czy też słyszane podczas konferencji.

Szczegółowa analiza parametrów wszystkich wymienionych funkcjonalności multimedialnych nie jest przedmiotem pracy magisterskiej. Wyjątek stanowi usługa konferencji omówiona w następnym podrozdziale.

Należy podkreślić, iż powyższa definicja opisuje usługę multimedialną jako usługę świadczoną przez sieć telekomunikacyjną dla jej użytkowników końcowych. Taką perspektywę przyjęto bowiem w niniejszej pracy – ostatecznym odbiorcą usługi (i strumieni multimedialnych) jest tutaj terminal użytkownika. Można jednak rozpatrywać inne punkty widzenia, np.

  • usługa multimedialna jako sieciowa usługa transportowa – przesyłanie strumieni multimedialnych pomiędzy elementami sieci (po uprzednim zestawieniu sesji)
  • usługa multimedialna jako dostępna na pewnym elemencie sieci funkcjonalność przetwarzania sygnałów multimedialnych
  • usługa multimedialna jako funkcjonalność udostępniana przez pewien element sieci (np. serwer mediów).
    • Usługa konferencji

Usługa konferencji to najbardziej złożona funkcjonalnie usługa multimedialna w sieciach typu V OIP. Stanowi również usługę kluczową w kontekście opisu mechanizmów sterowania serwerem mediów. Opiera się na zestawieniu połączenia dla wielu terminali (multiparty connection) i przesyłaniu strumieni multimedialnych między nimi.

Obsługa takiego połączenia w sieci z sygnalizacją opartą na protokole SIP wykracza poza standardowe mechanizmy kontroli połączeń opisane w [1]. SIP wspiera tworzenie prostych połączeń wielopunktowych i podstawowe zarządzanie nimi takie jak dołączanie, odłączanie uczestników połączenia oraz negocjacja i renegocjacja parametrów sesji. Te mechanizmy nie są jednak wystarczające w przypadku bardziej zaawansowanych funkcjonalności konferencyjnych, obecnych zresztą już w sieciach z komutacją kanałów. Usługa konferencji może bowiem łączyć kilka różnych usług multimedialnych ze zbioru opisanego w rozdziale 2.1. W ramach przykładowej konferencji, oprócz miksowania strumieni wraz z transkodowaniem pomiędzy różnymi kodekami dla terminali uczestniczących w połączeniu, możliwa jest interakcja z uczestnikami poprzez wykorzystanie funkcji IVR oraz np. odtwarzanie zapowiedzi słownych dla wszystkich uczestników w sytuacji, gdy ktoś dołącza się do połączenia lub je opuszcza. Jest to jednak nadal relatywnie prosty przykład, gdyż rozbudowane systemy konferencyjne dostarczają znacznie bardziej bogaty zestaw funkcji.

W takiej sytuacji konieczne stało się zdefiniowanie modelu usługi konferencji wykorzystującej protokół SIP oraz stworzenie dodatkowych mechanizmów, za pomocą których będzie możliwa kontrola zaawansowanych funkcji konferencyjnych. W [14] opisano generyczny funkcjonalny model systemu konferencyjnego opartego na sygnalizacji SIP. W [31] (opracowanym przez grupę standaryzacyjną IETF XCON – Centralized Conferencing Working Group) zaproponowano oparty na języku XML informacyjny model danych dla konferencji scentralizowanych . Oba modele zostały zaadoptowane i uszczegółowione dla sieci IMS w [41],

Przyjmijmy zatem następujące definicje: [14]

Konferencja w kontekście sieci opartej na sygnalizacji SIP to instancja połączenia wielostronnego.

Uczestnik konferencji to aplikacja lub urządzenie fizyczne, które umożliwia przyłączenie użytkownika lub automatu do konferencji. Ma zaimplementowaną funkcjonalność agenta użytkownika SIP (SIP UA), może mieć również zaimplementowane specyficzne mechanizmy spoza protokołu SIP wspierające dodatkowe funkcjonalności.

Focus to agent użytkownika SIP (SIP UA), który jest adresowany poprzez adres URI konferencji. Jest to funkcjonalność logiczna w ramach konferencji. Focus identyfikuje konferencję. Utrzymuje wymianę sygnalizacji z każdym jej uczestnikiem. Jego rolą jest zapewnienie, że każdy uczestnik konferencji otrzyma strumień medialny. Focus zawiera również zaimplementowane polityki konferencji (conferencepolicies), czyli określające ją zbiory zasad.

URI konferencji – adres URI, zazwyczaj SIP URI, który wskazuje na focus konferencji.

Mikser22 – blok funkcjonalny, który otrzymuje strumienie medialne tego samego typu (audio lub video), następnie łączy je (miksuje) w pewien zdefiniowany sposób i dystrybuuje rezultat („zmiksowany” strumień) do każdego uczestnika konferencji. Przesyłane strumienie są transportowane z wykorzystaniem protokołu RTP23.

Często spotykanym terminem odnośnie usługi konferencyjnej jest także MCU – Multipoint Control Unit. Jest to blok pełniący funkcje miksera. W niektórych implementacjach powierza mu się także ustanawianie sesji SIP pomiędzy nim a uczestnikami konferencji. Obejmuje wówczas funkcje miksera i focusa, stając się centralnym punktem sterowania konferencją. Mimo występującej tutaj zbieżność funkcji MCU z funkcjami pełnionymi w architekturze V OIP przez sprzężone moduły serwera mediów i serwera aplikacyjnego, termin MCU nie pojawia się w dokumentach standaryzacyjnych dotyczących tej architektury. Z tego względu tak określany element sieciowy nie jest przedmiotem rozważań niniejszej pracy. [15] [16]

  • Typy konferencji

W zależności od sposobu organizacji wymiany wiadomości sygnalizacyjnych oraz strumieni danych audio/video, w sieciach telekomunikacyjnych opartych na sygnalizacji SIP możliwa jest realizacja różnego typu konferencji.[14], [53]

  • Konferencja fully distributed multiparty conference – w tym modelu konferencji każdy z uczestników utrzymuje wymianę wiadomości protokołu SIP oraz strumieni medialnych z każdym z pozostałych uczestników (połączenie punkt-punkt). Nie istnieje centralny punkt sterowania konferencją, sterowanie jest rozproszone pomiędzy uczestników. Każdy terminal uczestniczący w konferencji jest obciążony koniecznością miksowania strumieni medialnych od pozostałych uczestników, co przy większej ich liczbie może wyczerpać moc obliczeniową urządzenia. Ten model konferencyjny nie jest zatem skalowalny, nie sprawdza się dla dużych konferencji. Konferencję, w której terminale końcowe pełnią funkcjonalność miksera, określa się często jako endpoint mixing conference. [53]
  • Konferencja loosely coupled conference – konferencja, w której uczestnicy wymieniają wiadomości SIP w trybie transmisji unicast (czyli punkt-punkt), ale nie istnieje żadna „nadrzędna” relacja sygnalizacyjna pomiędzy wszystkimi uczestnikami, która świadczy o konferencji . Nie istnieje centralny punkt sterowania konferencją czy też serwer konferencyjny, a SIP nie jest wykorzystywany do tworzenia/niszczenia instancji konferencji.. Dane audio/video są transmitowane w trybie 25 Grupę multicast tworzą uczestnicy konferencji. Zaproszenie do konferencji odbywa się poprzez wysłanie wiadomości SIP INVITE z opisem sesji i adresem grupy multicast w polu SDP. Na poziomie sygnalizacji jest to zatem zwyczajny dialog SIP. Fakt, że dany terminal uczestniczy w konferencji, jest wnioskowany z informacji kontrolnej przekazywanej z danymi audio/video (np. z wykorzystaniem protokołu RTCP [8]).

Ze względu na zastosowanie techniki multicast do transmisji mediów konferencja loosely coupled conference jest też nazywana konferencją multicast. [53] [17] [18]

  • Konferencja tightly coupled conference – konferencja, w ramach której istnieje agent SIP (focus), który utrzymuje dialog SIP z każdym z uczestników konferencji. Agent ten steruje więc konferencją, stanowi centralny punkt kontroli. Może również zapewniać funkcję miksowania strumieni medialnych[19]. Jest adresowany poprzez adres URI konferencji. Protokołu SIP umożliwia jedynie przyłączenie/odłączenie terminala do/od takiego typu konferencji. Bardziej wyrafinowane funkcje muszą zostać zrealizowane w oparciu o dodatkowe mechanizmy.[14]

W sieci typu V OIP możliwe jest zrealizowanie każdego z powyższych typów konferencji. Jednakże rozważania zawarte w niniejszej pracy dotyczą jedynie konferencji typu tight coupled. Focusem dla takiej konferencji jest serwer mediów, którego pracą steruje serwer aplikacji.

Warto podkreślić, że blok focus może znaleźć zastosowanie w realizacji konferencji typu endpoint mixing oraz multicast (zakładając, że nawiązał relację sygnalizacyjną z uczestnikami konferencji). W ramach end point mixing conference, focus może dołączyć nowego uczestnika poprzez rozesłanie wiadomości re-INVITE do pozostałych uczestników, modyfikując dla nich opis sesji tak, że uwzględnia on dane nowego uczestnika. W efekcie nowy uczestnik otrzymuje strumienie medialne od pozostałych uczestników konferencji. W ramach multicast conference, focus może przesyłać uczestnikom konferencji wiadomość SIP z adresem grupy multicast w polu SDP. W efekcie strumienie medialne będą z terminali uczestników przesyłane na adres multicast.

  • Konferencja w trybie mieszanym

Oddzielną uwagę należy poświęcić tzw. konferencji w trybie mieszanym (mixed-mode conference). Jest to konferencja, w ramach której oprócz przesyłania strumieni audio/video, uczestnicy współdzielą także dane innego typu (prezentacja slajdów, grafika, współdzielenie tablicy do rysowania etc, plików, wysyłanie wiadomości tekstowych) lub całe aplikacje. Terminal SIP użytkownika musi posiadać tutaj dodatkową funkcjonalność umożliwiającą opisane współdzielenie. Jednakże w sytuacji, gdy użytkownik oddzielnie korzysta z terminala SIP UE i narzędzia do współdzielenia aplikacji ( np. Microsoft NetMeeting), mamy do czynienia z dwoma oddzielnymi usługami, a nie konferencją w trybie mieszanym.

Mechanizmy współdzielenia danych i aplikacji nie są ujęte w standaryzacji i są to raczej rozwiązania producenckie, oparte na technologiach internetowych. Wykraczają one poza protokół SIP i kontekst usługi konferencji zdefiniowanej w ramach architektury VOIP. Ponadto rozważane w niniejszej pracy sterowanie serwerem mediów nie obejmuje tych mechanizmów. Z tego względu konferencje typu mieszanego nie będą tutaj przedmiotem dalszych rozważań.

  • Miksowanie strumieni video w konferencji audiowizualnej.

Miksowanie strumieni video w ramach konferencji/połączenia wielostronnego może odbywać się w 3 trybach:

  • VAS – Voice Activated Switching – w zmiksowanym sygnale video wysyłanym do uczestników połączenia w danej chwili widoczny jest ten użytkownik, który aktualnie zabiera głos. Jeśli głos zabierze inny użytkownik – obraz video zostanie przełączony na niego. Przełączenie na podstawie detekcji głosu.
  • Continous Presence – wszyscy uczestnicy połączenia konferencyjnego są widoczni w zmiksowanym sygnale video. Ekran dzielony jest na ilość pół odpowiadającą ilości użytkowników, w każdym polu widoczny jest jeden użytkownik.
  • lecture mode – tryb wykładowcy – w strumieniu video wyświetlana jest tylko jedna osoba, tzw. wykładowca.
    • Zbiór zaawansowanych funkcji konferencyjnych

W kontekście usługi konferencji można powiedzieć, iż podstawowe funkcjonalności to rozpoczynanie lub kończenie konferencji, miksowanie strumieni oraz dołączanie/odłączanie uczestników. Wszystkie pozostałe funkcje należy traktować jako zaawansowane.

Organizacje standaryzacyjne nie zdefiniowały jednoznacznie zbioru zaawansowanych funkcji konferencyjnych, mimo iż istnieje szereg dokumentów opisujących różne mechanizmy wspierające realizację usługi konferencji. Efektem takiej sytuacji jest brak jednolitych rynkowych standardów. Przykładowo na potrzeby sterowania serwerem mediów przez serwer aplikacji (powiązanie tych dwóch modułów stanowi tutaj realizację bloku funkcjonalnego focus) zdefiniowano kilka konkurencyjnych protokołów. Każdy z nich został opisany przy udziale specjalistów pracujących dla różnych producentów systemów telekomunikacyjnych, w efekcie każdy z nich wspiera nieco odmienny zbiór zaawansowanych funkcji konferencyjnych. Z drugiej strony systemy konferencyjne obecne na rynku telekomunikacyjnym zawierają nierzadko innowacyjne funkcjonalności, nie objęte jeszcze przez proces standaryzacyjny.

W tym kontekście istnieje potrzeba zdefiniowania podstawowego zakresu wspomnianego zbioru. Jego zawartość ma bowiem kluczowe znaczenie przy analizie funkcjonalności serwera mediów (który wspiera realizację usługi konferencji), analizie porównawczej protokołów sterowania tym serwerem czy analizie funkcji całych systemów konferencyjnych złożonych z różnych modułów.

Przyjmijmy zatem, że do zaawansowanych funkcji konferencyjnych zaliczyć można:

  • Planowanie dokładnej daty i godziny rozpoczęcia konferencji oraz czasu jej trwania
  • Rozpoczynanie konferencji (czyli utworzenie instancji usługi konferencyjnej oraz rozpoczęcie pracy miksera i focusa) o wskazanym wcześniej czasie
  • Odtwarzanie komunikatów audio/video podczas konferencji (dla wszystkich lub wybranych uczestników) – np. o zbliżającym się zakończeniu konferencji lub o dołączeniu nowego uczestnika[20]
  • Interakcję z wybranymi użytkownikami podczas konferencji poprzez DTMF – umożliwia np. teległosowanie, czy też udzielanie pojedynczym uczestnikom słyszalnych tylko dla nich informacji (czas trwania konferencji, liczba uczestników etc)
  • Funkcjonalność floor control (termin ten pochodzi od angielskiego zwrotu to take the floor – zabrać głos – i oznacza sterowanie dostępem uczestników do „głosu”, czyli do medium, jakim jest strumień audio/video w konferencji.)

o Zwiększanie/zmniejszanie siły głosu poszczególnych uczestników konferencji

o Zarządzanie trybem uczestnictwa w konferencji

  • Tryb wykładu (lecture mode) – tylko jeden uczestnik konferencji (wykładowca) jest uprawniony do głosu (wysyłanie mediów – send media), pozostali mają prawo jedynie słuchać (odbieranie

mediów – receive media). Mogą zasygnalizować chęć zabrania głosu poprzez „podniesienie ręki”

  • Udzielanie/odbieranie prawa głosu innym uczestnikom konferencji

o Dopuszczenie do głosu tylko jednego uczestnika konferencji (tzw. tryb wykładowcy – lecture mode), podczas gdy inni mogą jedynie słuchać (odbierać strumień audio)

o Tworzenie subkonferencji (subconference) i konferencji pobocznych (sidebar conference) – czyli „konferencji w konferencji” o Łączenie kilku konferencji w jedną konferencję.


[1]  Przez przetwarzanie strumieni cyfrowych należy rozumieć wszelkie operacje na strumieniu bitów takie jak: kodowanie/dekodowanie, zmiana wartości bitów, synteza danych audio etc.

[2]  Dla ścisłości, tak zdefiniowana usługa multimedialna może również obejmować analogowe sygnały audio/video, jednakże w niniejszej pracy definicja odnosi się do sieci typu V2OIP – patrz rozdział 4.

[3]   W niniejszej pracy określenie strumienie cyfrowe audio/video jest stosowane zamiennie z określeniem „strumienie multimedialne”. Określenia te są równoznaczne.

[4]   skrót od waveform lub wave; Jest to standard zapisu dźwięku w formie pliku na komputerach typu IBM PC, opracowany przez firmy IBM i Microsoft. Zawiera najczęściej dane audio w formacie bezstratnym PCM, chociaż możliwe jest zastosowanie formatów stratnych.

[5]    Oznaczenie formatu plików zwanego QuickTime, opracowanego przez firmę Apple Inc. Pliki mov funkcjonuje jako tzw. kontener multimediów. Zawiera jedną lub wiele ścieżek, z których każda przechowuje dane określonego typu: audio, video, tekst etc. Format plików QuickTime stanowi podstawę standardu MPEG-4 Part 14.

[6]    Rozszerzenie pliku multimedialnego, który zawiera dane audio/video kodowane wg jednego ze standardów opracowanych przez grupę MPEG (Moving Picture Experts Group).

[7]    Przechodzenie między trybami wymaga renegocjacji parametrów sesji komunikacyjnej poprzez przesłanie wiadomości re-INVITE. Nie musi to być jednak konieczne – np. w sytuacji gdy do terminala SIP UE nagle zostanie zaprzestane wysyłanie strumienia video, strumień audio pozostanie bez zmian (zależy to jednak od implementacji terminala – niektóre terminale SIP UE mogą zerwać połączenie w przypadku, gdy nie będą już odbierać pakietów jednego ze strumieni. Z tego względu najbezpieczniej jest stosować mechanizm re-INVITE)

[8]   Przesyłanie tonów DMTF w tym samym kanale, co dane audio/video pochodzące z terminala.

[9]    Przesyłanie tonów DTMF w dedykowanym kanale komunikacyjnym, oddzielonym od kanału strumienia danych audio/video. Dla sieci V2OIP wykorzystujących protokół RTP rozwiązanie to zostało opisane w dokumencie RFC 2833.

[10] Funkcjonalność tę opisano w rozdziale 2.2.3.

[11] Spotkać się również można z określeniami legal interception, telephone tapping, wire tapping

[12] Communications Assistance for Law Enforcement Act

[13]  Jest to funkcjonalność opisana w dokumencie[12]. Umożliwia wymianę danych audio/video pomiędzy stroną wywołującą i wywoływaną w połączeniu zanim strona wywoływana dokona akceptacji sesji protokołu SIP. W praktyce bardzo często wykorzystywana w połączeniach na styku domen IP i komutacji pakietów. Np. gdy wywoływany z domeny IP terminal GSM jest wyłączony, centrala MSC odtwarza komunikat o niedostępności abonenta docelowego. Trafia on do abonenta SIP właśnie dzięki early media, mimo braku zestawionej sesji w znaczeniu SIP (nie dochodzi do ustanowienia połączenia).

[14]  Czyli takich, dla których istnieje centralny moduł utrzymujący sygnalizację z uczestnikami konferencji i zapewniający dostarczenie zmiksowanych strumieni audio/video.

[15]  Przedstawiona definicja poszerza definicję miksera zawartą w[8] o obsługę przez mikser strumieni, które nie bazują na protokole RTP (np. wiadomości natychmiastowych przesyłanych w ramach sesji usługi Instant Messaging & Presence, bazuj ących na protokole MSRP – Message Session Relay Protocol [32]).

[16] Real-time transport Protocol ([8]) – protokół zaprojektowany celem efektywnego przenoszenia danych audio/video w sieci IP

[17]   Zazwyczaj uczestnik konferencji wymienia tutaj wiadomości SIP tylko z jednym z pozostałych uczestników, a nie ze wszystkimi uczestnikami konferencji.

[18]   Sposób transmisji informacji do grupy adresów docelowych, który zakłada, że jeżeli dwa adresy znajdują się w lokalizacji, do której prowadzi ta sama ścieżka, wiadomość jest tą ścieżką wysyłana tylko raz, a następnie kopiowana, gdy ścieżka się rozdziela. Grupa adresów docelowych, do których wysyłana jest wiadomość, nazywana jest grupą multicast i posiada swój unikalny adres multicast..

[19] Możliwa jest sytuacja, w której funkcje focusa i miksera pełni jeden z terminali użytkownika. Wówczas konferencja jest jednocześnie konferencją typu end point mixing conference.

[20]   Można mówić o tzw. tajnym uczestnictwie w konferencji (secret participation) w przypadku, gdy dołączenie nowego uczestnika nie jest oznajmiane przez system poprzez odtworzenie komunikatu/dźwięku pozostałym uczestnikom lub o anonimowym uczestnictwie (anonimom participation) – gdy uczestnicy konferencji są informowani o dołączeniu nowego uczestnika, ale jego tożsamość pozostaje niejawna.

Borgesowska przypowieść o tworzeniu mapy Imperium w skali jeden do jednego [Borges 2005], to opowieść o wyszukiwarkach internetowych. Zawartość sieci jest tak bogata, że najistotniejszym zadaniem i problemem jednocześnie jest wyszukanie pośród ton śmieci tej jednej właściwej informacji. W tym celu jedni ludzie od dawna konstruują mechanizmy wyszukiwawcze (tzw. wyszukiwarki), a drudzy korzystają z nich, gdyż sami nie byli by w stanie przesiać tak dużych ilości informacji. Powodem jest nie to, że użytkownicy wyszukiwarek są ułomni lub leniwi – po prostu człowiek nie jest w stanie przetworzyć takich ilości informacji. Jako przykład możemy zaproponować komuś, wyszukanie informacji na temat miejsco­wości Knyszyn pod Białymstokiem, w zasobach Biblioteki Kongresu USA.

Faktem jest, że ludzie (szczególnie bardzo młodzi) postrzegają obecnie internet i jako źródło danych godne zaufania. Przypowieść o tym jak syn pyta swojego ojca: „Tato, czy jak czegoś nie ma w Googlu, to znaczy ŻE TO NIE ISTNIEJE?”, przestaje być śmieszna. „Myślę więc jestem” [Kartezjusz] traci aktualność, gdyż firmy tworzące „mapę Imperium” pragną zdjąć z barków internauty, cały ciężar związany z myśleniem. Akurat Kartezjusz „jest w” Google, więc „istnieje”, ale ogromna ilość informacji pomimo, że jest w sieci, nie jest zaindeksowana przez wyszukiwarki.[1]

Jak stwierdził w 2005 roku szef Google Inc. – Eric Schmidt – „świat to tylko 5 milionów terrabajtów danych – Google zaindeksowało już 170 terrabajtów”, reszta (ekstrapolując tempo indeksowania) zajmie im 300 lat… Google traktuje to zadanie bardzo poważnie. [za: Mills] Należy oczywiście pamiętać, że mówiąc „świat”, Schmidt nie ma na myśli wszystkich danych zgromadzonych w komputerach, tylko „świat” jako wszystkie dane: informacje w sieci, książki wydrukowane, rozprawy naukowe, mapy i modele obiektów na Ziemi.[2] W wizji Google, internet to Biblioteka [Borges 2003] wymagająca Bibliotekarza (czyli właśnie Googla), który dopomoże czytelnikowi, czy będzie tego chciał, czy nie… [por. Lipszyc]

Mapa bez-Imperium

Cóż jednak się stanie, gdy mapa przerośnie Imperium, lub gdy Imperium rozsypie się w proch? „Ludzie wieku elektronicznego […] kształtują samych siebie na obraz i podobieństwo technologii” [Bolter], musi dojść jednak do momentu, w którym to technologia będzie kształtować samą siebie na wzór ludzi… Będzie to Sztuczna Inteligencja.


[1]  dane obecne w internecie mogą być nie zaindeksowane przez wyszukiwarki z różnych powodów, np. błędów w kodzie HTML, zabezpieczeń hasłami, itp. Mogą też być celowo blokowane przez wyszukiwarkę, jako tzw. treści nieporządane – [czyt.: Internet].

[2]  Obecnie Google oferuje wiele serwisów wyszukiwawczych, np.: Google Search – google.com/. Google Images – images.google.com/. Google Groups – groups-google-com

Definicja SI

Modelowanie rzeczywistości, komputery szachowe, HAL 9000… to wszystko bardzo zbliża nas do skonstruowania (zaprogramowania?) sztucznej inteligencji, jednak cały czas realizacja tej idei pozostaje na wyciągnięcie palców – tuż, tuż… Lecz czym właściwie jest SI? Obecnie nie ma jednoznacznej definicji, pozwalającej sprawdzić czy jakaś maszyna jest już SI czy jeszcze nie… Generalnie taka maszyna ma udawać ludzki umysł, jednak jest to bardzo nieprecyzyjne określenie. Przyjrzyjmy się więc, jak zdefiniowali sztuczną inteligencję dwaj badacze SI – Turing i Lem.

Test Turinga wygląda następująco: sędzia – człowiek – prowadzi rozmowę w języku naturalnym z pozostałymi stronami. Jeśli sędzia nie jest w stanie wiarygodnie określić, czy któraś ze stron jest maszyną czy człowiekiem, wtedy mówi się, że maszyna przeszła test. Zakłada się, że zarówno człowiek jak i maszyna próbują przejść test jako człowiek.

Test pochodzi od zabaw polegających na zgadywaniu płci osoby znajdującej się w innym pokoju przy pomocy serii pytań i odpowiedzi pisanych na kartkach papieru. W pierwotnym pomyśle Turinga uczestnik ludzki musiał udawać przeciwną płeć, a test był ograniczony do pięcio­minutowej rozmowy. Dziś nie uważa się tych cech za podstawowe i zasadniczo nie umieszcza w specyfikacji testu Turinga[1].

Stanisław Lem: „Decydującym kryterium, które dowodziłoby powstania sztucznej inteligencji, byłaby rozmowa z maszyną. Mój nieczłowieczy partner miałby za zadanie opowiedzieć własnymi słowami jakąś przedstawioną mu anegdotę lub historię, zachowując przy tym cały sens mojej opowieści. Dla ostrożności należałoby tego rodzaju test powtórzyć kilkakrotnie.” [Lem 2001]

Teraz więc pozostaje nam już tylko zająć się konstruowaniem maszyny spełniającej te testy, albo w przypadku kiedy nie jesteśmy inżynierami/kompu­terowcami, możemy zastanowić się nad sytuacją, kiedy zaprzężone do pozyski­wania danych maszyny SI, zetkną się z problemem przerostu popytu nad podażą…

Gdy zabraknie danych…

Zapotrzebowanie na informacje wzrasta z dnia na dzień (być może z minuty na minutę). Ludzie coraz częściej szukają danych w internecie, coraz więcej danych trafia do internetu… Coraz rzadziej ludzie szukają danych w realu. Wzrost wydajności indeksowania treści w internecie jest ogromny – Google chce zaindeksować CAŁY świat, lecz nie może tego zrobić, bo niektóre treści są nieindeksowalne. Być może treści takie będą (lub już są) blokowane/kasowane [por.: Lipszyc], tak jak na przykład w Chinach blokowane są treści dotyczące praw człowieka [zob.: Internet].

Może dojść do takiego momentu, że zapotrzebowanie na informacje w internecie, a w przyszłości w VR, będzie tak ogromne (i cenne), że SI zaczną fabrykować np. ilustracje, aby zaspokoić te potrzeby.

„Wszelka działalność podmiotu, jeśli ma kształtować tożsamość, musi posiadać odniesienie do pamięci. Wszelka percepcja odnosi się tyle do bodźców doświadczanych, co do pamięci, bez względu na to, czy mamy na myśli tożsamość społeczeństw, czy tożsamość jednostek, czy mówimy o tożsamości kształtowanej przez zewnętrzne postrzeżenia innych odnoszące się do podmiotu, czy o wewnętrznych spostrzeżeniach podmiotu odnoszących się do siebie samego.” [Brzeziński]

Brzeziński pisze o tym, że nie można stworzyć „czegoś z niczego”. Wszystko co powstaje, ma odniesienia, a właściwie jest pochodną tego co już było. Źródłem danych dla umysłu jest pamięć i ikonosfera [Porębski] – tak samo Sztuczne Inteligencje będą tworzyć nowe dane (m.in. wizualne) w oparciu o „to-co-było” [Barthes]

SI zaczną same tworzyć sztukę i kulturę[2], żeby mieć, co indeksować. Aby to robić, SI będą musiały korzystać z „infoikonosfery” [zob.: Kierus 2o06b], czyli stworzonego w internecie „wizualnego horyzontu możliwości wizualnych” [Szpociński]. Aby stworzyć perfekcyjną „podróbkę” SI muszą dokładnie analizować dotychczasowe obrazy powstałe w „realu”, fizykę światła, odbicia, bilans energetyczny. Już w tej chwili dostępne oprogramowanie działające na wyspecjalizowanych stacjach graficznych potrafi (oczywiście dzięki ludziom-operatorom) generować obrazy znacznie lepsze jakościowo od klasycznej fotografii. [zob.: Fotografia „wirtualna”] W kontekście tego co jest bardziej prawdziwe – fotografia wirtualna czy realna, warto przypomnieć anegdotyczną rywalizację pomiędzy Parrasjosem a Zeuksisem – polegający na tym, kto namaluje bardziej realne (czyt. hiperrealne) winogrona. Wygrał Zeuksis – do jego malowidła przylaty­wały wróble…[3]

Co gorsza, jak wiemy, sztuczne inteligencje prawdopodobnie będą w stanie się udoskonalać, a być może samoreplikować [por. Gibson] – ludzie zaczną być niepotrzebni [por. Matrix] – prawdopodobnie powstanie „podziemie” (odejście od technik cyfrowych) – zawsze jako „kontra” do zjawisk popularnych (pop) powstaje coś, co jest spowodowane wewnętrzną ludzką potrzebą przeciwstawienia się statystycznej „normalności”, czyli tzw. „off” [por. Matrix; Seksmisja; Kierus 2006a].


[1] za: Wikipedia [on-line] pl.wikipedia.org/wiki/Test Turinga (11.08.2006)

[2]  zob.: Bruszewski, W. (1988) Radio Ruine der Kunste Berlin. [on-line] voytek.pl/radio.htm (26.06.2006), zob.: Kierus, W. (2005-2006) Sztuczny Inteligent. [on-line] pracovnia.pl/sztuczny inteligent/ (26.06.2006)

[3]  zob.: portalwiedzy.onet.pl/26042….zeuksis.haslo.html (12.08.2006)

LPG w stanie płynnym pochodzący ze zbiornika przy pomocy układu rur wysokociśnieniowych i po przejściu przez elektrozawór LPG osiąga reduktor typu pneumatycznego. Tutaj, dzięki wodzie pochodzącej z układu chłodzenia, LPG przechodzi w stan gazowy o ciśnieniu atmosferycznym i jest gotów do tego aby był zmieszany z powietrzem. Naturalnie elektrozawór benzynowy zadziałał blokując przepływ paliwa oryginalnego. W tym momencie bardzo ważny staje się mieszacz. Od tego urządzenia, które może być wytwarzane w różnych wersjach, zależy wyprodukowanie odpowiedniej mieszanki paliwowo-powietrznej. Mieszacz do pojazdów gaźnikowych może być wytworzony używając Venturi gaźnika lub tworząc na nim Venturi niezależny.

Do pierwszej rodziny należą więc:

– system mieszalny (dysza lub sprzęgło), który zawarty jest w pierwszej rurze wstawionej przez wykonany otwór w gaźniku,

– system widełkowy (widełkowa), który zawarty jest w jednej lub dwóch rurach włączonych do gaźnika bez wykonania otworów

– system centratorów

Do drugiej rodziny należą:

– mieszacze „klasyczne”, które zainstalowane są na szczyjce Venturi a których umiejscowienie jest różne w zależności od pojazdu

– mieszacze płaskie, które instalowane są nad korpusem (trzonem) motylkowym pod obudową filtru powietrza.

System mieszalny

Rozwiązanie to, jeżeli jest dobrze wykonane przynosi znakomite wyniki.

Nie jest jednak możliwe do zastosowania we wszystkich rodzajach gaźników.

Poza tym wykonanie wymaga czasu i doświadczenia. Wybór położenia dla wykonania otworu narzuca konieczność usytuowania sprzęgła tak jak na rys. 22.

Wejście gazu musi być wykonane w taki sposób aby prowadnica wyższa sprzęgła była nieco niżej (2-3 mm) od odcinka ściśniętego rury Venturi, w pozycji pokrywającej się zasadniczo z końcówką centralną gaźnika.

Ustawiwszy właściwą pozycję należy następnie zwrócić baczną uwagę na uniknięcie przecięcia przepływu benzyny w fazie wykonywania otworu. Sprzęgło ścięte do 45° musi być przykręcone do gaźnika w taki sposób, aby środek był o kilka mm odległy od gaźnika. Następnie należy zabezpieczyć szczelność sprzęgła przy pomocy produktów chemicznych i nakrętką.

 

System widełkowy.

Rozwiązanie to jest z całą pewnością bardziej proste niż poprzednie.

Jedyną czynnością do zaadoptowania będzie lekkie przeprofilowanie skrzydełek startera, które w przeciwnym wypadku nie będą funkcjonować. Także w tym wypadku należy zwrócić uwagę na to, że widełki muszą dojść 2-3 mm niżej od odcinka ściśniętego rury Venturi. Rury miksera gazu nie mogą przechodzić przez filtr powietrza a wyłącznie przez jego obudowę (zazwyczaj plastikową).

System centratorów

Mieszacz centratorowy opiera się na podstawie systemu widełkowego. Jest zazwyczaj mniej ekonomiczny, ponieważ jest montowany w celu zaspokojenia specyficznych wymagań pojazdu. W tym przypadku istnieje możliwość uniknięcia przeprofilowania skrzydełek startera.

Mieszacze klasyczne

Są następnym dobrym rozwiązaniem, ponieważ pozwalają na szybki montaż. Zazwyczaj są instalowane na tulei powietrznej. Mieszacze klasyczne mogą być zarówno typu ze sprzęgłem jak również typu uzupełniającego w zależności od cech charakterystycznych pojazdu samochodowego.

Mieszacze płaskie.

Są instalowane na korpusie motylkowym. W przeważającej liczbie przypadków niezbędne jest podniesienie obudowy filtru powietrza i umocowanie mieszacza na korpusie motylkowym śrubami dołączanymi do mieszacza. Te mieszacze, mimo że zajmują niewiele miejsca, zapewniają dobre funkcjonowanie i dużą szybkość montażu.

Globalna galeria

Posted: 7 listopada 2019 in prace magisterskie
Tagi:

Formułując swoją wizję „globalnej wioski”[1], McLuhan widział media elektroniczne, jako wielką nadzieję dla ludzkości. Miały one umożliwić ludziom komunikację na masową skalę, poprzez obalenie barier czasowych i przestrzennych [McLuhan 2001]. Obecnie te przewidywania w znacznej mierze się spełniły za pomocą środków personalnego przekazu elektronicznego (internet, telefony komórkowe). Dziś internet stał się nieodzownym narzędziem komunikacji międzyludzkiej, środkiem wymiany myśli i poglądów, stał się medium masowym. Żadne inne środki masowego przekazu, nigdy tak doskonale nie pomagały w rozpowszechnianiu fotografii. Postęp technologiczny związany z komunikacją jest tak szybki, że często nie nadążamy ze śledzeniem nowinek technicznych. Fotografia (zwłaszcza cyfrowa) odnalazła w internecie szczególnego sprzymierzeńca.

Śledząc historię obu zjawisk (zobacz: Kalendarium historii internetu i fotografii cyfrowej), zauważymy że w roku 1976 pojawiła się „pierwsza iskierka” prowadząca do wspólnej historii – pierwszy komputer osobisty przeznaczony do użytku w domu – Apple I. Był on tylko drewnianą skrzynką z procesorem taktowanym zegarem o częstotliwości 1 MHz (czyli o parę tysięcy razy wolniejszym niż nam współczesne procesory)[2]. Dopiero w 1983 roku, Steve Jobs tworzy LisaOS GUI – system operacyjny z okienkowym interfejsem graficznym[3]. W mniej więcej tym samym czasie, internet przechodzi metamorfozę od „wojskowego cacka” do instrumentu dla naukowców i studentów. Rok 1993 staje się datą przełomową dla związku fotografii z internetem – powstaje pierwsza graficzna przeglądarka internetowa Mosaic[4] [5] – umożliwiająca oglądanie zdjęć zamieszczonych w sieci. Rok później, na amatorski rynek trafia pierwszy fotograficzny aparat cyfrowy – Apple QuickTake 100, z matrycą o rozdzielczości 640 x 480 pikseli. W następnych latach pojawiły się kolejne aparaty: Kodak DC40 (1995), Casio QV-11 (1995), Sony Cyber-Shot (1996).

Od tego momentu lawina runęła… Dostęp do internetu staje się świetnym pretekstem do kupienia aparatu cyfrowego, a jednocześnie posiadanie aparatu cyfrowego pretekstem do podłączenia internetu. Coraz więcej ludzi znajduje się w zasięgu łączy internetowych i coraz więcej ludzi kupuje aparaty cyfrowe. Według badań rynku, liczba sprzedanych w Ameryce Północnej aparatów cyfrowych w roku 2005 osiągnie prawdopodobnie 26 milionów (16% wzrost w stosunku do poprzedniego roku). Według tych samych prognoz, w roku 2005 nasycenie gospodarstw domowych aparatami cyfrowymi osiągnie 55% [Info Trends/CAP Ventures 2005]. W 2006 roku sprzedaż aparatów cyfrowych osiągnie około 89 milionów sztuk, co da 15% wzrost w stosunku do roku 2005 [Info Trends/CAP Ventures 2006]. Nigdy w historii fotografii nie było takiego boomu, jaki spowodowała fotografia cyfrowa. Na obecnym stanie rozwoju daje ona ogromne możliwości – od natychmiastowego oglądania efektów na wyświetlaczu aparatu cyfrowego, poprzez łatwe archiwizowanie i wyszuki­wanie zdjęć (np. poprzez słowa kluczowe), po możliwość natychmiasto­wego przesłania fotografii w dowolny punkt świata np. za pomocą przenośnego komputera (+internetu) lub telefonu komórkowego. [7]

Rozwój internetu odbywał się wraz z rozwojem fotografii cyfrowej i na odwrót – oba czynniki oddziaływały i dopingowały się wzajemnie, choćby z powodu „zwizualizowania” naszego świata (komunikacji i kultury) [McLuhan, por. Kita, por. Hopfinger, por. Olechnicki], zagęszczenia stru­mienia danych budującego naszą ikonosferę [Porębski]. Obecnie dzięki internetowi „w zasięgu ręki” mamy porady techniczne, usługi, sklepy ze sprzętem i materiałami fotograficznymi, itp. Mamy też tysiące, setki tysięcy zdjęć zamieszczonych w sieci. Niektóre z tych zdjęć mogą być dla nas bezwartościowe (np. zdjęcie z imienin u czyjejś cioci), ale czasami możemy znaleźć fotografie intrygujące, historyczne, artystyczne itp. (upraszczając – wartościowe). Przez internet można uprawiać „marketing artystyczny” lub korzystać z niego jako niezależnego środka wyrazu. Wielką nadzieję dla sztuki głosi „cyberkulturowy kustosz” – Steve Dietz [za: Zawojski 2005], próbując oprócz „tworzenia w sieci” urzeczywistnić ideę „muzeum sztuki sieci”, jako archiwum net-artu[8]. Dietzowi chodziło oczywiście o „sztukę internetu”, a nie o fotografię, jednak tę ideę można by doskonale przenieść na pole fotografii. Wspaniałe zbiory fotografii w nowojorskiej MoMA są poza zasięgiem przeciętnego Europejczyka – sieć dałaby jednak możliwość ich zdalnego oglądania[10].

Globalna sieczka

Niestety, nie wszyscy widzą internet w tak pięknych barwach. Czasami, gdy próbujemy coś znaleźć pośród pleniących się kłączy sieci, utykamy w martwym punkcie lub jesteśmy zwodzeni na manowce intrygującymi lub fałszywymi linkami. Tracimy przy tym masę czasu, choć sieć miała ułatwić nam życie i przyśpieszyć wyszukiwanie danych. Problem straconego czasu w sieci dobrze ujmuje Eriksen, zauważając, że choć pozornie internet daje nam możliwość szybszego działania, to poprzez cykl czynności związanych z obsługą komputera i oprogramo­wania w efekcie ten czas tracimy [Eriksen]. Na przykład mamy łatwiejszą i szybszą możliwość komunikacji poprzez pocztę elektroniczną („e-mail”: komputer + sieć) w stosunku do tradycyjnej poczty („snail-mail”[11]: pismo ręczne + żaglowiec, parowiec, samolot), jednak w związku z tą łatwością wysyłania e-maili oraz przyzwyczajeniem do otrzymywania na nie szybkiej odpowiedzi, nawet na e-maile typu „cze, uots ap? co slychac?”, tracimy masę czasu na czytanie e-maili, segregowanie ich w paczki, kasowanie spamu[12], itp. „E-mail to błogosławieństwo dla nadawcy, ale dla odbiorcy może być przekleństwem” [op.cit. ].

Odkąd „globalna wioska” McLuhan’a rozszerzyła swoje terytorium i skurczyła swoje wnętrze, problem czasu, a właściwie prędkości zaczął być coraz bardziej istotny. Największym oponentem zachwytów McLuhana jest Paul Virilio[13] – teoretyk dromologii, nauki o prędkości, a właściwie jej negatywnych skutków. Virilio analizuje jak wynalazki służące zwiększaniu szybkości życia wpływają negatywnie na ludzkość. Eriksen tak pisze o poglądach Virilia: „Jak to ujął teoretyk prędkości, (…) żyjemy obecnie w czasach bez opóźnień. (…) Czas, rozumiany jako środek budowania dystansu i bliskości, przestał istnieć.” [op.cit.]. Czas w ogólnym pojęciu przestaje płynąć strumieniem, a zaczyna przeskakiwać w coraz krótszych odcinkach. Zanika też zjawisko zwane niegdyś podróżowaniem. Obecnie dzięki samolotom i samochodom, podróż nie jest poznaniem, doświadczeniem, eksperymentem – jest przeskokiem, przełączeniem się z punktu a do punktu b, przy całkowitej utracie orientacji. „Podróżując” po świecie wirtualnym nie przebywamy jakiejś liniowej trasy w przestrzeni – przeskakujemy od hiperłącza do hiperłącza[14], nie mamy nawet pojęcia gdzie (i czy w ogóle) się one znajdują w świecie rzeczywistym [Virilio].

Lata 90. charakteryzowały się niespotykaną euforią związaną z internetem. Wielkie banki inwestycyjne obiecywały krociowe zyski z inwestowania w branżę nowych technologii. Jednak euforia ta zakończyła się ogromnym rozczarowaniem, spowodowanym wielkim krachem dotcomów[15] (w samym USA straty inwestorów wyniosły około 5 miliardów dolarów). Oprócz załamania giełdy, załamały się też nadzieje związane z internetem jako panaceum na dolegliwości demokracji. Okazało się, że sieć nie zbliża wcale ludzi – nie jest „narzędziem demokratycznej polityki”, a wręcz przeciwnie, powoduje izolację ludzi, przeszkadzając demokratycznemu dialogowi [Bauman 2005]. Wolność, wypisana na sztandarach internetu, w znacznej mierze okazała się „wolnością kontrolowaną” przez rządy i koncerny medialne. Regulacje prawne dotyczące praw autorskich chronią głównie interesy pośredników (koncernów i ich prawników), a nie samych autorów [Lessig 2004]. Pamiętajmy jednak, że internet jest fragmentem „machiny mediów”. W xXl wieku trudno jest człowiekowi mieszkającemu w „cywilizowanym świecie” uciec od radia, telewizji, gazet, internetu… Z jednej strony członek społeczności cywilizowanej może się cieszyć, że ma szeroki dostęp do informacji, z drugiej strony powinien mieć świadomość, że codziennie poddawany jest manipulacji informacyjnej. Zarzucany jest stosem informacji, które nie są istotne dla jego wiedzy o świecie, a są „medialne”, czyli dobrze się „sprzedają” (pod względem politycznym lub komercyjnym) za pomocą kanałów medialnych.

Przyjęcie założenia, że internet to największa dostępna skarbnica wiedzy jest ze wszech miar słuszne, pod warunkiem, że wykazujemy się skrajną nieufnością. Szum informacyjny, którego dostarcza internet, trzeba starannie przefiltrować. W tym szumie pełno jest „kleksów”, czyli bezsensownych, przypadkowych, nieprawdziwych informacji. Oprócz „kleksów” znajdziemy jeszcze więcej informacyjnych „koni trojańskich”, które celowo są wpuszczane do sieci, aby zwodzić na manowce zbyt ufnych internautów. Na pierwszy rzut oka mogą one wyglądać całkiem wiarygodnie, lecz każdą informację trzeba dokładnie sprawdzić w innych źródłach. Zresztą najlepszą metodą manipulacji informacyjnej jest nie wprowadzanie „fałszywek”, ale generowanie szumu zastępczego. Jak pisze Kapuściński:

„dla historyka żyjącego w XXI wieku podstawowym źródłem wiedzy o naszym stuleciu (o XX wieku) będą archiwa telewizyjne, miliony kilometrów taśmy. Tymczasem w telewizji otrzymujemy wersję historii najbardziej wyselekcjonowaną i udramatyzowaną. Zooming kamery to jest także sposób widzenia świata: zbliżając fragment obrazu, eliminujemy wszystko inne” [Kapuściński].

Ilość internetowych galerii fotograficznych (stron będących zbiorem fotografii cyfrowych bądź zdigitalizowanych) osiągnęła taki poziom, że bardzo trudno odnaleźć jakieś interesujące nas zdjęcia.[16] Jest to klasyczny przykład „szukania igły w stogu siana” połączonego z „odsiewa­niem ziaren od plew”.

Internet nie rozwijał by się tak bez fotografii cyfrowej, a fotografia cyfrowa nie rozwijała by się bez internetu. Jest to fakt. Zwróćmy jednak uwagę, że internet jako przestrzeń jest tylko preludium – fazą wstępną do wirtualnej rzeczywistości. Zastanówmy się teraz, czym jest VR i jak będzie ona wpływać na losy sztuki oraz fotografii.


[1]  więcej: http://pl.wikipedia.org/wiki/Globalna wioska (24.08.2005)

[2]  więcej: http://www.apple-history.com/?page=gallery&model=aI (15.09.2005)

[3]  GUI – Graphical User Interface [więcej: http://pl.wikipedia.org/wiki/GUI (15.09.2005)]. Zarówno Steve Jobs (współtwórca Apple) jak i Bill Gates (Microsoft) próbowali stworzyć graficzny (okienkowy) system operacyjny opierając się na pracach prowadzonych przez

Xerox. Apple stworzyło LisaOS w 1983 roku, wyposażając nim komputer Lisa. W roku 1985 na rynku pojawiła się odpowiedź Microsoftu – Windows 1.0. Jobs zarzucał Gatesowi kradzież pomysłu, jednak Gates odpowiedział: „Nie, Steve, myślę, że to było tak jakbyśmy mieli wspólnego sąsiada o nazwisku Xerox, włamałeś się do jego domu żeby ukraść telewizor, na miejscu stwierdziłeś, że ja wcześniej to zrobiłem i powiedziałeś:

Hej, to nie w porządku! To ja chciałem ukraść telewizor!”. [za: http://www.apple-history.com/?page=gallery&model=GUI (15.09.2005)]]

[4]  więcej: http://en.wikipedia.org/wiki/Mosaic %28web browser%29 (15.09.2q05)

[5]  za: http://www.folklore.org/StoryView.py?project=Macintosh&story=Desk Ornaments.txt (27.07.2006)

[6]  za: http://members.fortunecity.com/pcmuseum/windows.htm (28.07.2006)

za: http://homepage.mac.com/cameradecollection/others/Pages/6.html (28.07.2006)

[8]  cykl fotografii wykonanych telefonem komórkowym, [więcej: http://free.art.pl/fotografie/daleko blisko (27.07.2006)]

[10] Obecnie w kolekcji on-line MoMA jest okołóo 200 fotografii [http://www.moma.org/collection (10.07.2006)]

[11] Snail mail – dosłownie „ślimacza poczta”; żargonowe, żartobliwe określenie klasycznej poczty, która jest znacznie wolniejsza od nowoczesnej poczty elektronicznej

[za: Helionica – sieciowa encyklopedia informatyki. http://helionica.pl/index.php/Snail mail (10.08.2005)]

[12] Spam to elektroniczne wiadomości masowo rozsyłane do osób, które ich nie oczekują, np. niechciane reklamy [za: Wikipedia. http://pl.wikipedia.org/wiki/Spam (10.08.2005)]

[13] Zobacz: http://www.cyberforum.edu.pl/postacie.php3?ITEM=12 (23.08.2005)

[14] Hiperłącze (ang. hyperlink) to zamieszczone w dokumencie elektronicznym (tekstowym, graficznym, wideo, animacji, PDF, HTML) odwołanie do innego dokumentu lub innego miejsca w danym dokumencie. Odwołanie takie związane jest z fragmentem tekstu lub obrazem – uaktywnienie hiperłącza (kliknięcie lub nadejście odpowiedniego momentu) powoduje otwarcie dokumentu docelowego.

[za: Wikipedia. http://pl.wikipedia.org/wiki/Hypertext (23.08.2005)]

[15] dotcom – strona internetowa przeznaczona do działań komercyjnych, również popularne określenie firmy handlowej opartej na internecie.

Nazwa ta pochodzi od .com – zakończenia adresu internetowego stron komercyjnych. [za: http://www.powernet.co.uk/client/general/glossary.shtml (25.08.2005), por. http://en.wikipedia.org/wiki/Dotcom (25.08.2005)]

[16] Po wpisaniu do wyszukiwarki Google zapytania o treści: photo gallery, Google zaproponowało około 1,010,000,000 stron WWW zaindeksowanych jako pokrewne z tym zapytaniem, wyświetliło też informację, że część stron zbyt podobnych pominięto w wynikach wyszukiwania [za: http://www.google.pl (27.07.2006)].

Łączna ilość stron WWW zaindeksowanych przez Google to ponad 8 miliardów stron WWW [za: http://www.google.pl (11.08.2005)]

Przystosowanie samochodu Lublin do zasilania gazem LPG polega na wbudowaniu:

  • Zbiornika w kształcie walca pomiędzy podłużnicę ramy nośnej podwozia a poszycie ściany bocznej nadwozia lub na skrzyni ładunkowej (rozwiązanie optymalne), ewentualnie zbiornika toroidalnego pod ramę, w miejscu mocowania koła zapasowego (objętość zbiornika ograniczona do maks. 60dm3 ). Pojemność zbiorników walcowych zawiera się w granicach 30÷40dm3 z możliwością ich powiększenia poprzez zestawienie zbiorników o różnej pojemności. Wszystkie są testowane na ciśnienie robocze 2MPa oraz wyposażone w zespół zaworów, również z upustowym zaworem bezpieczeństwa. Gaz w zbiorniku znajduje się pod ciśnieniem 0,5÷1Mpa.
  • Elektrozaworu otwierającego dopływ LPG do reduktora.
  • Reduktora ciśnienia gazu z wbudowaną na wyjściu pompą krokową optymalizującą skład mieszanki palnej.
  • Mieszalnika w układzie dolotowym silnika umieszczonego pomiędzy filtrem powietrza a kolektorem dolotowym.
  • Instalacji elektrycznej z centralką wyposażoną w mikroprocesor kontrolujący proces spalania oraz unieruchamiający wtryskiwacze benzyny podczas zasilania silnika LPG.

Skroplony gaz przepływa ze zbiornika do reduktora, gdzie w wyniku rozprężenia przechodzi w stan lotny. W celu ułatwienia zmiany jego stanu skupienia, obudowa reduktora ciśnienia jest ogrzewana cieczą z układu chłodzenia silnika. Gaz w stanie lotnym przepływa do mieszalnika, w którym miesza się z zasysanym do silnika powietrzem.

Zapłonem steruje mikroprocesor przetwarzający informacje zbierane z: silnika krokowego (natężenie przepływającego gazu), przepustnicy mieszanki (zawartość tlenu w spalinach), reduktora ciśnienia (temperatura odparowania LPG) i cewki zapłonowej (prędkość obrotowa silnika). Przełącznik rodzaju paliwa umieszczony jest na tablicy rozdzielczej i ma dwa położenia: zasilanie tylko benzyną lub praca w cyklu automatycznym. W tym drugim przypadku zasilanie przebiega w ten sposób, że z reguły rozruch zimnego silnika odbywa się na benzynę, a po osiągnięciu temperatury reduktora 30° następuje przełączenie układu na zasilanie LPG bez udziału kierowcy. Lublin II z opisaną instalacją uzyskał homologację, a użytkownicy nowych pojazdów objętych gwarancją nie tracą uprawnień z tytułu jej montażu.

 Peugeot 406 LPG 1,8

Wbrew przypuszczeniom atrakcyjne osiągi, charakterystyczne dla modelu z 16-zaworowym silnikiem 1,8 dm3, nie ulegają ograniczeniu przy stosowaniu napędu gazowego. Samochód jest podobnie żwawy, przyspieszenia są godne tej luksusowej limuzyny, właściwie nie odczuwa się zupełnie, że podróżuje się „na gazie” i to 2,5 raza taniej. Zwraca uwagę wyjątkowo cicha praca silnika, wręcz wzorowo są wytłumione odgłosy układu jezdnego i uszczelnione nadwozie. Nawet przy prędkościach zbliżonych do maksymalnych nie trzeba w samochodzie podnosić głosu. W praktyce są nieodczuwalne różnice trakcyjne

przy zasilaniu gazem i benzyną, zarówno prędkości minimalne jak i maksymalne na poszczególnych biegach są identyczne. Przy przełączaniu z napędu benzynowego na gazowy nie wyczuwa się zakłóceń w pracy silnika niezależnie od prędkości obrotowej silnika, tylko kontrolne światło na tablicy rozdzielczej sygnalizuje, jakie paliwo jest spalane. Rozruch silnika w temperaturach dodatnich może być wykonywany przy zasilaniu gazowym, bez konieczności przełączania na zasilanie benzyną. W praktyce zużycie gazu jest niewiele, o ok. 3% większe niż zużycie benzyny. Toroidalny zbiornik gazu ma pojemność 57 dm3, ale maksymalna ilość gazu, którą można do niego wtłoczyć wynosi 42 dm3, w praktyce można go napełnić tylko w ¾ pojemności. Toroidalny zbiornik gazu znajduje się w miejscu koła zapasowego, którego po prostu w samochodzie nie ma. Dlatego, jeśli nie chcemy próbować naprawy uszkodzonego koła przy użyciu dwóch butli z pianką, które znajdują się w wyposażeniu Peugeota 406 LPG. Korek wlewu gazu nie jest chroniony tak jak korek wlewu benzyny, co nie jest korzystne ze względu na bezpieczeństwo oraz na możliwość zamarzania. W samochodzie znajdują się dwa wskaźniki poziomu paliwa: oddzielnie gazu, oddzielnie benzyny. Przydałyby się również dwa wskaźniki przebiegów dziennych (np. przełączane), aby można było orientować się np. ile kilometrów przejechaliśmy na gazie, a ile na benzynie. Wskaźnik ilości gazu podaję niedokładne dane (wskazuje mniejsze ilości gazu niż jest faktyczni w zbiorniku), a wskazówka stale się waha (to urządzenie wymaga chyba dopracowania). Należy pamiętać że w silniku musi być stosowany specjalny olej. Jazda Peugeotem 406 LPG to komfort na gazie, za niewielkie pieniądze.

„fotografia jest tak popularna jak coca-cola” [Lachowicz]

Kiedy w 1839 roku Daguerre ogłosił wynalazek fotografii, nikt nie spodziewał się jak potoczą się jej losy. Początkowo traktowano ją za mimetyczną „nowinkę techniczną”, lecz bardzo szybko zaczęto obawiać się, że fotografia oznacza „koniec malarstwa” (Paul Delaroche). Obawy te oczywiście były przedwczesne i nietrafione. Fotografia zmusiła tylko dotychczasowe malarstwo do przyśpieszonej ewolucji formalnej i merytorycznej, choć sama musiała czekać dziesiątki lat na uznanie jej jako dziedziny sztuki. Kiedy w końcu pogodzono się z faktem, że fotografia nie jest do końca tym co Arystoteles nazwał mianem mimezis, czyli sztuką naśladującą rzeczywistość, zaczęto doszukiwać się w niej znaczeń metafizycznych – śladu. Wątek fotografii jako „śladu” (przeszłości) poruszano już wielokrotnie w różnych kontekstach [por.: Michałkowska, Barthes: „fotografia = to-co-było”, Berger, Skarga…], dlatego nie będziemy się teraz tym zajmować. Odniesienie do minionej rzeczywistości przestało być takie oczywiste w momencie kiedy na scenę wkroczyła fotografia przetwarzana cyfrowo. Od tego momentu możemy mówić, że fotografia cyfrowa „żywi się” śladami przeszłości – korzysta z gotowych fotografii wykonanych wcześniej, często w innym celu. Podobnie jak pisze Derrida o fotografii rzeczywistej, istotą fotografii wirtualnej nie będzie odniesienie do rzeczywistości a odniesieniem do „bycia kiedyś”. Dla człowiek „zanurzonego” w VR tak samo istotne są wydarzenia wirtualne jak [Derrida].

Wraz z ogromną popularyzacją fotografii cyfrowej (przełom XX i XXI wieku) zaczęto doszukiwać się w niej zjawiska przełomowego – nie tylko nowej jakości, ale nowego rozdziału w historii fotografii. Nie da się ukryć, że pod względem popularności, łatwości obsługi i obróbki oraz niskich cen – jeszcze nigdy fotografia nie była tak bliska ludziom. Niestety, spowszednienie fotografii (będące tylko częścią szerszego zjawiska, które można nazwać wizualizacją świata) spowodowało znaczny spadek jakości i znaczenia fotografii w ogóle. Małe, niezbyt dobre jakościowo odbitki albo nawet tylko komputerowe pliki graficzne w znacznej mierze ustanowiły standard w fotografii.

Poza dostępnością, łatwością obróbki i stosowania komputerowych efektów specjalnych oraz wielkimi możliwościami gromadzenia, przechowywania i prezentowania (np. udostępniania w Internecie [por.: Kierus 2003]), cyfryzacja nie zmieniła nic w samej idei fotografii. To tylko jedna z nowych technik. Przejście z fotografii analogowej do cyfrowej można porównać do wprowadzenia aparatów i filmów małoobrazkowych Kodaka. Próba podnoszenia fotografii cyfrowej do rangi nowej dziedziny artystycznej (co robią niektórzy autorzy podpisując swoje zdjęcia nazwą „fotografia cyfrowa”, jakby to była co najmniej „akwaforta”, „węgiel”, czy „gwasz”…) jest zupełnie nietrafiona.

Początkowo fotografia cyfrowa była tylko nowym narzędziem, nie tworzyła nic innego niż fotografia klasyczna, inna była tylko forma rejestracji i zapisu. W obecnej chwili „analogowi klienci” foto-labów często nie zdają sobie sprawy, że ich zdjęcia nie są kopiowane na maszynach analogowych, tylko negatywy są skanowane a odbitki naświetlane cyfrowo laserem. Wśród ludzi zajmujących się fotografią, często pokutowało przeświadczenie, że cyfrowa fotografia jest „nieprawdziwa”, że matryca CCD[1] nie przekazuje energii światła tak jak robi to emulsja światłoczuła. To jest oczywiście prawda – energia nie jest przekazywana w taki sam sposób, ale jednak jest przekazywana.

Dla przeciętnego fotoamatora istotna jest możliwość robienia bardzo dużej ilości zdjęć bez ponoszenia dodatkowych kosztów (na tradycyjnym filmie małoobrazkowym można zrobić 36 zdjęć, aparatem cyfrowym na przeciętnym nośniku cyfrowym – paręset). Niewątpliwie rozdzielczość aparatów cyfrowych zaspokaja w zupełności potrzeby amatorów – bez problemu można wykonać cyfrową odbitkę formatu pocztówkowego (przy matrycy o rozdzielczości 3 Mpx – obecnie standardem jest znacznie większa rozdzielczość[2]), nie bez znaczenia jest też łatwa i darmowa (bez skanowania, itp.) możliwość skopiowania zdjęć do komputera, na płytę CD czy DVD, przetworzenia zdjęć za pomocą programu graficznego i błyskawicznego przesłania w dowolny punkt świata (za pomocą internetu) [Hopfinger]. Podobnie zawodowcy i artyści chętnie przechodzą na technikę cyfrową oszczędzając czas i pieniądze. Jak pisze Nowotka: „Praca na slajdach lub negatywach wiąże się zawsze z niepewnością co do ostatecznego wyniku. Wyjdzie, czy nie wyjdzie? A jak wyjdzie? A jak się coś popsuje, to trzeba będzie sesję organizować od nowa. Kto za to zapłaci? Cyfra likwiduje te problemy całkowicie. Efekt widzą od razu, mogą też przesłać podglądy pocztą elektroniczną” [Nowotka].

Jednak część ludzi fotografujących kieruje się zupełnie innymi pobudkami. Tradycjonaliści zawsze odrzucają nowinki techniczne, trzymając się starych i sprawdzonych mechanizmów i metod działania. Wielu fotografów twierdzi, że nie ma to jak klasyczne zdjęcie zrobione na srebrowym materiale światłoczułym[3]. I nie można im odmówić racji – możliwość wielkiego powiększenia, rozpiętość tonalna, charakterystyczny kształt ziarna, faktura barytowanego papieru… Fotografia cyfrowa jeszcze przez jakiś czas nie dogoni techniki analogowej w kategorii jakościowej.

Dopiero gdy fotografia zaczęła być masowo manipulowana cyfrowo, zetknęliśmy się z nową wartością w zakresie pojęcia fotografia cyfrowa. Jak mówi pochodzący z Chin artysta – Daniel Lee – jedną z najważniejszych rzeczy, jakie wydarzyły się w fotografii od wynalezienia aparatu, było pojawienie się programu Adobe Photoshop[4] [za: Zawojski 2006][5]. Zresztą zagadnienie to dotyczy ogólnie obrazu – nie tylko fotografii. Fotografia ma swojego Horowitza, który już w latach osiemdziesiątych tworzył „elektroniczne fotobrikolaże”, z kolei film ma Rybczyńskiego – prekursora montażu elektronicznego jako środka wyrazu artystycznego. Obaj ci twórcy posługują się komputerami, by stworzyć obraz taki jak sobie zaplanowali, a nie rejestrować taki, jaki akurat spotkali w rzeczywistości. Jak pisze Zawojski:

„Można postawić zarzut, iż takie operowanie rzeczywistością, wykorzystywanie jej do tworzenia ‘innych światów’, ‘światów niemożliwych’ w duchu Escherowskim[6], doprowadza w rezultacie do całkowitego zaniku realności, Baudrillardowskiej ‘agonii realnego’. Nieskończone symulacje i transformacje rzeczywistych obiektów w celu wykreowania obrazów, które ‘pięknie kłamią’, służą niewątpliwie poszerzaniu wyobraźni, jednocześnie jednak zamazują epistemologiczną pewność obcowania z tym, co jest prawdą i fałszem, rzeczywistością i iluzją.” [Zawojski 2000]

Równie „epokowym” zjawiskiem (będącym oczywiście konsekwencją pojawienia się fotografii cyfrowej) jest pojawienie się fotografii w internecie.

Internet a fotografia cyfrowa

Dawniej życie toczyło się powoli. Nikt się nie śpieszył. Dziś tylko w krajach mniej rozwiniętych gospodarczo, takich jak kraje Afryk, Ameryki Południowej czy Azji Południowo-Wschodniej czas jest mierzony od wydarzenia do wydarzenia, a nie dyktowany wskazówkami zegara. W Europie też tak było, jednak od czasów ery uprzemysłowienia (XIX w.) tempo upływania czasu diametralnie wzrosło. Goban-Klas bardzo dobrze ilustruje ten fakt za pomocą „zegara postępu technologicznego”.

„Wyobraźmy sobie, iż cały okres od powstania mowy artykułowanej

aż do roku 2000 naszej ery uznamy za odpowiednik jednej pełnej

doby, czyli dwudziestu czterech godzin. Na takim zegarze jedna

godzina reprezentuje aż tysiąc pięćset lat.” [Goban-Klas 2002]

  • północ (początek metaforycznej doby) – około 360. stuleci temu – porozumiewanie się za pomocą gestów,
  • ósmej rano – 12 tys. lat p.n.e. – malowidła naskalne,
  • 20:00 – pierwsze systemy zapisu mowy,
  • 20:40 – hieroglify egipskie,
  • 21:38 – alfabet,
  • kilka minut po 22:00 – pierwsze zapisane utwory literackie,
  • 23:30 – ruchoma czcionka Gutenberga,
  • 23:53 – prasa drukarska napędzana parą, w tej samej minucie powstaje telegraf,
  • 23:55 – powstaje telefon i gramofon,
  • 23:55:47 – radiotelegrafia,
  • 23:57:04 – kino,
  • 23:57:50 – kserografia,
  • 23:57:52 – tranzystor,
  • 23:58:02 – telewizja kolorowa,
  • 23:58:16 – zostaje wystrzelony w kosmos pierwszy sztuczny satelita Ziemi,
  • 23:58:20 – skonstruowano radio stereofoniczne,
  • 23:58:59 – magnetowid,
  • 23:59:11 – komputer osobisty, odtwarzacz laserowy,
  • 23:59:20 – pojawia się internet i strony WWW,
  • 00:00:00 – „katastrofa roku 2000”.[7] [Goban-Klas 2002]

Nasze czasy to już zupełnie inna epoka niż poprzednie. Możemy przyjąć, że jesteśmy w fazie maksimum „trzeciej fali” (1 fala – społeczeństwo agrarne, 2 fala – przemysłowe, 3 fala – informatyczne) [Toffler], lecz prawdopodobnie nadchodzi kolejna „fala” (być może jesteśmy już w jej fazie wstępnej) – fala społeczeństwa wirtualnego. Patrząc na zjawisko przyśpieszenia dziejów pod kątem komunikacji znajdujemy się obecnie w epoce komunikacji wizualno-obrazkowej (historia komunikacji [Goban-Klas 2002]: epoka werbalna, epoka pisma – Gutenberga [McLuhan], obrazkowa), gdy społeczeństwo będzie już całkowicie wirtualne, trzeba będzie chyba odłożyć na półkę historię komunikacji, gdyż wszystko będzie komunikacją digitalną, niezależnie jaką formę będzie przyjmować.

Widzimy więc, że historia technologii i komunikacji od zawsze były ze sobą splecione, obecnie widać to szczególnie wyraźnie na podstawie wspólnej historii fotografii cyfrowej i internetu, dwóch zjawisk które mogły by istnieć bez siebie, lecz nigdy nie nabrały by takiej dynamiki rozwoju i takiego znaczenia. Przyjrzyjmy się teraz kalendarium:

Kalendarium historii internetu[8] i fotografii cyfrowej[9] [10]:

1945 – Vannevar Bush publikuje w Atlantic Monthly artykuł As We May Think27, gdzie przedstawione zostają idee leżące u podstaw hipertekstu.

1951 – pierwszy magnetowid na taśmę (Video Tape Recorder) oparty na matrycy CCD.

  • – ZSRR wystrzeliwuje Sputnika.
  • – USA formuje agencję ARPA (Advanced Research Projects Agency
  • Agencja Rozwoju Zaawansowanych Projektów) – w odpowiedzi na radzieckiego Sputnika.

1961 – Leonard Kleinrock tworzy pierwszą teorię przełączania pakietów

1964 – Paul Baran publikuje raport On Distributed Communications Networks29 z propozycja zdecentralizowanej sieci komputerowej, która może działać nawet w przypadku awarii wielu węzłów. Propozycja ta leży u podstaw utworzenia kilka lat później ARPANET.

  • – ARPANET powstaje jako 4 węzłowa sieć. Pierwszymi wysłanymi pakietami była próba zalogowania się na zdalny system. Zakończyła się zawieszeniem systemu kiedy litera „G” z wyrazu LOGIN została wysłana.
  • – Uruchomiona została pierwsza wersja FTP (File Transfer Protocol), dzięki któremu powstały w internecie biblioteki programów, a także sterowników do sprzętu, dokumentacji.
  • – Ray Tomlinson30 tworzy pierwszy program pocztowy wykorzystujący sieć ARPANET.
  • – Program pocztowy zostaje zmodyfikowany, od tego roku używany jest znak @ oddzielający nazwę użytkownika od adresu węzła (autorem zastosowania „małpy” jest wspomniany wcześniej Tomilson). Następuje pierwsza tekstowa pogawędka na żywo przez sieć. Powstaje Telnet, aplikacja pozwalająca na zdalną pracę na odległych komputerach. Texas Instruments zgłasza patent na aparat fotograficzny „bez-filmu” – w praktyce jest to magnetowid rejestrujący obraz jako stop-klatkę.
  • – Do ARPANET’u włączone zostają pierwsze instytucje spoza Stanów Zjednoczonych.
  • – Po raz pierwszy pojawia się słowo internet, w opracowaniu badawczym dotyczącym protokołu TCP, napisanym przez Vintona Cerfa (wraz z Bobem Kahn’em[14] [15]) – „A Protocol for Packet Network Intercommunication”32. W uznaniu za tą i inne zasługi Vinton Cerf jest znany jako „ojciec internetu”.

1976 – pierwszy komputer osobisty przeznaczony do użytku w domu – Apple I.

1979 – Powstaje Usenet, tekstowe grupy dyskusyjne. Dziś Usenet to ponad 50 tysięcy grup i miliony użytkowników, czytających i biorących udział w dyskusjach.

  • – Sony prezentuje pierwszy komercyjny, cyfrowy aparat Mavica[16]. Obraz jest zapisywany na dyskietkach (później pojawiła się wersja zapisująca na płytach CD-R, Memory Stick, itp), a następnie odtwarzany w magnetowidzie jako „stop-klatka”.
  • – W sieci komputerowej pojawiają się uśmieszki (smileys 🙂 :-* :-(), tekstowe znaczki wyrażające emocje („emoticony”), dziś powszechnie używane w poczcie, grupach dyskusyjnych i SMS’ach.
  • – Od ARPANET odłączona zostaje jej część wojskowa, tworząc MILNET. W ARPANET hosty i sieci zaczynają używać protokołu TCP/IP. Powstaje właściwy internet. Powstaje LisaOS GUI – system operacyjny z interfejsem graficznym.
  • – Do rozwoju internetu włącza się National Science Fundation, tworząc NSFNET, sieć coraz szybszych superkomputerów wykorzystywanych do celów naukowych. Zostaje opublikowana specyfikacja dNs (Domain Name System)[17].
  • – William Gibson pisze swą najsłynniejszą powieść fantastyczno-naukową (a właściwie „cyberpunkową”) – „Neuromancer” [Gibson], gdzie używa słowa cyberspace (cyberprzestrzeń). Wiele z przedstawionych w Neuromancerze koncepcji można odnaleźć w dalszym rozwoju internetu.
  • – W Polsce powstaje elektroniczne pismo Donosy, założone przez Ksawerego Stojdę. Pismo to jest wysyłane pocztą elektroniczną i istnieje do dziś[18].
  • – Tim Berners-Lee[19] tworzy World Wide Web, system pozwalający autorom na połączenie słów, zdjęć i dźwięku, początkowo pomyślany dla wsparcia naukowców zajmujących się fizyka w CERN. W maju Polska zostaje przyjęta do EARN, części sieci BITNET. Kodak prezentuje Photo CD – standard do zapisu elektronicznych obrazów.
  • – 17 sierpnia pierwsza wymiana poczty elektronicznej między Polską a światem, uważana za początek internetu w Polsce[20].
  • – Na wiosnę następuje pierwsze włamanie z Polski do komputera za granicą.
  • – Pojawia się Mosaic, pierwsza graficzna przeglądarka World Wide Web.
  • – pierwszy amatorski aparat cyfrowy – Apple QuickTake 100.

[1]  zobacz: http://pl.wikipedia.org/wiki/CCD (29.07.2006)

[2]  31 lipca 2006 roku, Samsung wprowadził na rynek telefon komórkowy SCH-a990.

Jest on wyposażony m.in. w: fotograficzny aparat cyfrowy z matrycą 3,2 Mpx, zoom’em i redukcją „czerwonych oczu”, lampę błyskową, camcorder… i wiele innych funkcji.

[za: http://www.samsung.com/Products/wirelessphones/index.htm (9.08.2006)]

[3]  czy też innymi „niestandardowymi” technikami fotograficznymi jak polaroid, Lomo, czy fotografia otworkowa [Kierus 2006a, por. Tomaszczuk, por. Michałkowska]

[4]  Adobe wypuściło na rynek program Photoshop 1.0 w lutym 1990 (wersja na Mac’a)

[za: http://www.storyphoto.com/multimedia/multimedia photoshop.html (13.08.2006)]

[5]  zob.: http://www.adobe.com/products/photoshop/ (9.08.2006)

[6]  chodzi tutaj o Maurits Cornelis Escher’a (1898-1972) – artystę tworzącego „dzieła plastyczne z zawartością matematyczną”, najbardziej znane jego prace to tzw. „figury niemożliwe” czy też „światy niemożliwe”.

Więcej: http://www.mcescher.com/ (15.08.2006)

[7]  tu widać, że Goban-Klas pisał ten tekst wcześniej niż okazało się, że panika związana z rokiem 2000 została sztucznie wywołana przez producentów sprzętu komputerowego, w celach zwiększenia sprzedaży. Jednak samo zjawisko sztucznej „katastrofy” świadczy dobitnie o tym, jak łatwo ludzie przyjęli komputery jako rzecz naturalną, nie wnikając zbytnio w to co mieści się w „blaszanym pudełku”. Przyjęli to jak magię – korzystając z tego w pełni, jednocześnie bojąc się.

[8]  Bardziej szczegółowe kalendarium historii internetu [on-line]: http://www.winter.pl/internet/historia.html (28.07.2006)

[9]  więcej: http://inventors.about.com/library/inventors/bldigitalcamera.htm (29.07.2006)

[10] Bush, V. (1945) As We May Think [w:] Atlantic Monthly 07/45 [on-line] http://www.theatlantic.com/unbound/flashbks/computer/bushf.htm (28.07.2006)

[11] Kleinrock, L. (1961) Information Flow in Large Communication Nets [on-line] http://www.lk.cs.ucla.edu/LK/Bib/REPORT/PhD (28.07.2006)

[12] zob.: http://www.rand.org/about/history/baran.list.html (28.07.2006)

[13] zob.: http://pl.wikipedia.org/wiki/Ray Tomlinson (28.07.2006)

[14] zobacz: http://en.wikipedia.org/wiki/Bob Kahn (28.07.2006)

[15] [on-line] http://www.cs.berkeley.edu/~istoica/classes/cs268/papers/ck74.pdf (28.07.2006), więcej o Cerf’ie: http://en.wikipedia.org/wiki/Vinton Cerf (28.07.2006)

[16] więcej: http://en.wikipedia.org/wiki/Mavica (29.07.2006)

[17] DNS – Domain Name System – usługa służąca do nazywania miejsc sieciowych „ludzkimi” słowami (np.: http://www.radiomaryja.pl/), a nie numerami IP (np.: 212.76.37.144).

[18] zobacz: http://info.fuw.edu.pl/donosy/ (28.07.2006)

[19] zobacz: http://en.wikipedia.org/wiki/Tim Berners-Lee (28.07.2006)

[20] w praktyce było to pierwsze wykorzystanie protokołu TCP/IP.

Dokonał tego Rafał Pietrak z Instytutu Fizyki Uniwersytetu Warszawskiego, łącząc się z Janem Sorensenem z Uniwersytetu w Kopenhadze.

[za: IAR, więcej: http://www.radio.com.pl/iar/news.aspx?iID=2469206 (21.082006)]