Archive for the ‘prace magisterskie’ Category

Niniejszy rozdział przytacza definicję usługi multimedialnej oraz zawiera omówienie tej definicji w kontekście tematyki pracy. Mimo, iż definiowane pojęcie jest zrozumiałe intuicyjnie, ścisłe definicja konieczna była dla klarowności wywodu.

Poniższe definicje należy oczywiście rozpatrywać w kontekście usługowym sieci VOIP.

  • Usługa multimedialna

Usługa multimedialna w znaczeniu telekomunikacyjnym to każda usługa, która oparta jest na przetwarzaniu strumieni cyfrowych audio/video i nie jest podstawową usługą telefonii.

Wg powyższej definicji usługa multimedialna stanowi zatem poszerzenie tradycyjnej usługi telefonii, rozumianej jako usługa przenoszenia głosu w połączeniach dwustronnych, o dodatkowe funkcjonalności oparte na przetwarzaniu dźwięku i obrazu.

Dla bardziej ścisłej definicji można przyjąć, iż:

Usługa multimedialna w znaczeniu telekomunikacyjnym to każda usługa, której świadczenie obejmuje wykorzystanie jednej lub kilku z poniższych funkcjonalności:

  • Przesyłanie strumieni danych cyfrowych audio/video[1] [2] [3] do terminali użytkowników:

o Odtwarzanie komunikatów głosowych – np. zsyntetyzowanych za pomocą łączenia kilku nagranych dźwięków lub z wykorzystaniem silników syntezy mowy (TTS – Text To Speech), lub zawartych w pliku audio

o Odtwarzanie plików audio/video (zapisanych w różnych formatach, np wav , mov , mpg etc)

o Odtwarzanie sygnałów sygnalizacji abonenckiej – tone playing (sygnał zgłoszenia centrali, sygnał zajętości, sygnał wybierania etc).

  • Rejestrowanie strumieni audio/video (do różnych formatów plików – wav, mov, mpg etc)
  • Zarządzanie typem odbieranych/wysyłanych strumieni multimedialnych – odbieranie/wysyłanie w danej chwili tylko strumienia audio/video, obu typów strumieni, płynne przechodzenie pomiędzy trybami[4] [5] [6] [7]
  • Operacje na strumieniach audio/video:

o Miksowanie strumieni audio/video (połączenia wielostronne, konferencyjne)

o Zmiana głośności strumienia audio

o Transkodowanie pomiędzy strumieniami danych audio/video kodowanymi różnymi kodekami

  • W połączeniach dwustronnych
  • W konferencjach (przy miksowaniu)
  • Przy nagrywaniu / odtwarzaniu (np. gdy dane w pliku są kodowane innym kodekiem niż wspierany przez terminal użytkownika)

o Funkcjonalność Text-To-Video (TTV), Text-Insertion-In-Video – dodawanie tekstu do strumienia video tak, aby widoczny był podczas odtwarzania

  • Funkcjonalność IVR
  • Funkcjonalność TTS / ASR
  • Pobieranie cyfr i symboli od abonenta (DTMF collection)

o W paśmie – Inband[8]

o Poza pasmem – Outband[9] [10] [11]

  • Połączenia konferencyjne (głosowe i video)
  • Proste (połączenie trójstronne, multiparty call)
  • Złożone – dla N uczestników

o Zaawansowana funkcjonalność konferencyjna i zarządzanie telekonferencjami (floor control)

  • Kopiowanie treści (Lawful Interception) – jest to funkcjonalność w ramach systemów telekomunikacyjnych, która pozwala na kopiowanie przesyłanych danych oraz podsłuchiwanie rozmów telefonicznych. Wymuszana zwykle przez regulacje prawne w danym państwie/organizacji. W kontekście multimediów oznacza kopiowanie strumieni multimedialnych na potrzeby późniejszego odtwarzania ich i śledzenia przebiegu oraz treści połączenia. Wyróżnia się europejską specyfikację architektury LI (wg ETSI) oraz amerykańską (CALEA[12])

Każdy z elementów powyższego zbioru można potraktować jako swego rodzaju blok funkcjonalny czy też obiekt klasy „funkcjonalność multimedialna”, wykorzystywany do budowy bardziej złożonych usług multimedialnych. Należy podkreślić, iż poszczególne bloki mogą zawierać szereg cechujących je „wewnętrznych” funkcjonalności. Przykładowo dla odtwarzania komunikatów audio można wyróżnić:

  • modyfikowanie komunikatów (zmiana treści, czasu trwania, głośności etc.)
  • dynamiczne generowanie komunikatów różnego typu (np. komunikowanie daty, godziny, kwoty pieniężnej, liczby, ciągu cyfr)
  • odtwarzanie komunikatów w różnych językach
  • odtwarzanie komunikatów zlokalizowanych w podanym miejscu w sieci (serwer HTPP, serwer FTP, serwer NFS)
  • rozpoczynanie odtwarzania ze wskazanym opóźnieniem, dołączanie do komunikatu nagranej przez abonenta sekwencji
  • odtwarzanie sekwencji komunikatów, powtarzanie ich i zapętlanie
  • wspieranie funkcjonalności SIP Early media[13]

Podobnie pobieranie cyfr i symboli poprzez DMTF obejmuje szereg opcji:

  • pobieranie pojedynczych cyfr lub sekwencji cyfr
  • definiowanie maksymalnego czasu oczekiwania na pierwszą wprowadzaną cyfrę
  • definiowanie maksymalnego interwału między dwoma podawanymi cyframi (Inter-digit timer)
  • definiowanie symboli specjalnych (np. „#”) celem oznaczania końca wprowadzanej sekwencji
  • blokowanie DTMF – tzw. DTMF clamping, czyli usuwanie tonów DTMF ze strumienia audio pochodzącego od terminala tak, aby np. nie były one nagrywane czy też słyszane podczas konferencji.

Szczegółowa analiza parametrów wszystkich wymienionych funkcjonalności multimedialnych nie jest przedmiotem pracy magisterskiej. Wyjątek stanowi usługa konferencji omówiona w następnym podrozdziale.

Należy podkreślić, iż powyższa definicja opisuje usługę multimedialną jako usługę świadczoną przez sieć telekomunikacyjną dla jej użytkowników końcowych. Taką perspektywę przyjęto bowiem w niniejszej pracy – ostatecznym odbiorcą usługi (i strumieni multimedialnych) jest tutaj terminal użytkownika. Można jednak rozpatrywać inne punkty widzenia, np.

  • usługa multimedialna jako sieciowa usługa transportowa – przesyłanie strumieni multimedialnych pomiędzy elementami sieci (po uprzednim zestawieniu sesji)
  • usługa multimedialna jako dostępna na pewnym elemencie sieci funkcjonalność przetwarzania sygnałów multimedialnych
  • usługa multimedialna jako funkcjonalność udostępniana przez pewien element sieci (np. serwer mediów).
    • Usługa konferencji

Usługa konferencji to najbardziej złożona funkcjonalnie usługa multimedialna w sieciach typu V OIP. Stanowi również usługę kluczową w kontekście opisu mechanizmów sterowania serwerem mediów. Opiera się na zestawieniu połączenia dla wielu terminali (multiparty connection) i przesyłaniu strumieni multimedialnych między nimi.

Obsługa takiego połączenia w sieci z sygnalizacją opartą na protokole SIP wykracza poza standardowe mechanizmy kontroli połączeń opisane w [1]. SIP wspiera tworzenie prostych połączeń wielopunktowych i podstawowe zarządzanie nimi takie jak dołączanie, odłączanie uczestników połączenia oraz negocjacja i renegocjacja parametrów sesji. Te mechanizmy nie są jednak wystarczające w przypadku bardziej zaawansowanych funkcjonalności konferencyjnych, obecnych zresztą już w sieciach z komutacją kanałów. Usługa konferencji może bowiem łączyć kilka różnych usług multimedialnych ze zbioru opisanego w rozdziale 2.1. W ramach przykładowej konferencji, oprócz miksowania strumieni wraz z transkodowaniem pomiędzy różnymi kodekami dla terminali uczestniczących w połączeniu, możliwa jest interakcja z uczestnikami poprzez wykorzystanie funkcji IVR oraz np. odtwarzanie zapowiedzi słownych dla wszystkich uczestników w sytuacji, gdy ktoś dołącza się do połączenia lub je opuszcza. Jest to jednak nadal relatywnie prosty przykład, gdyż rozbudowane systemy konferencyjne dostarczają znacznie bardziej bogaty zestaw funkcji.

W takiej sytuacji konieczne stało się zdefiniowanie modelu usługi konferencji wykorzystującej protokół SIP oraz stworzenie dodatkowych mechanizmów, za pomocą których będzie możliwa kontrola zaawansowanych funkcji konferencyjnych. W [14] opisano generyczny funkcjonalny model systemu konferencyjnego opartego na sygnalizacji SIP. W [31] (opracowanym przez grupę standaryzacyjną IETF XCON – Centralized Conferencing Working Group) zaproponowano oparty na języku XML informacyjny model danych dla konferencji scentralizowanych . Oba modele zostały zaadoptowane i uszczegółowione dla sieci IMS w [41],

Przyjmijmy zatem następujące definicje: [14]

Konferencja w kontekście sieci opartej na sygnalizacji SIP to instancja połączenia wielostronnego.

Uczestnik konferencji to aplikacja lub urządzenie fizyczne, które umożliwia przyłączenie użytkownika lub automatu do konferencji. Ma zaimplementowaną funkcjonalność agenta użytkownika SIP (SIP UA), może mieć również zaimplementowane specyficzne mechanizmy spoza protokołu SIP wspierające dodatkowe funkcjonalności.

Focus to agent użytkownika SIP (SIP UA), który jest adresowany poprzez adres URI konferencji. Jest to funkcjonalność logiczna w ramach konferencji. Focus identyfikuje konferencję. Utrzymuje wymianę sygnalizacji z każdym jej uczestnikiem. Jego rolą jest zapewnienie, że każdy uczestnik konferencji otrzyma strumień medialny. Focus zawiera również zaimplementowane polityki konferencji (conferencepolicies), czyli określające ją zbiory zasad.

URI konferencji – adres URI, zazwyczaj SIP URI, który wskazuje na focus konferencji.

Mikser22 – blok funkcjonalny, który otrzymuje strumienie medialne tego samego typu (audio lub video), następnie łączy je (miksuje) w pewien zdefiniowany sposób i dystrybuuje rezultat („zmiksowany” strumień) do każdego uczestnika konferencji. Przesyłane strumienie są transportowane z wykorzystaniem protokołu RTP23.

Często spotykanym terminem odnośnie usługi konferencyjnej jest także MCU – Multipoint Control Unit. Jest to blok pełniący funkcje miksera. W niektórych implementacjach powierza mu się także ustanawianie sesji SIP pomiędzy nim a uczestnikami konferencji. Obejmuje wówczas funkcje miksera i focusa, stając się centralnym punktem sterowania konferencją. Mimo występującej tutaj zbieżność funkcji MCU z funkcjami pełnionymi w architekturze V OIP przez sprzężone moduły serwera mediów i serwera aplikacyjnego, termin MCU nie pojawia się w dokumentach standaryzacyjnych dotyczących tej architektury. Z tego względu tak określany element sieciowy nie jest przedmiotem rozważań niniejszej pracy. [15] [16]

  • Typy konferencji

W zależności od sposobu organizacji wymiany wiadomości sygnalizacyjnych oraz strumieni danych audio/video, w sieciach telekomunikacyjnych opartych na sygnalizacji SIP możliwa jest realizacja różnego typu konferencji.[14], [53]

  • Konferencja fully distributed multiparty conference – w tym modelu konferencji każdy z uczestników utrzymuje wymianę wiadomości protokołu SIP oraz strumieni medialnych z każdym z pozostałych uczestników (połączenie punkt-punkt). Nie istnieje centralny punkt sterowania konferencją, sterowanie jest rozproszone pomiędzy uczestników. Każdy terminal uczestniczący w konferencji jest obciążony koniecznością miksowania strumieni medialnych od pozostałych uczestników, co przy większej ich liczbie może wyczerpać moc obliczeniową urządzenia. Ten model konferencyjny nie jest zatem skalowalny, nie sprawdza się dla dużych konferencji. Konferencję, w której terminale końcowe pełnią funkcjonalność miksera, określa się często jako endpoint mixing conference. [53]
  • Konferencja loosely coupled conference – konferencja, w której uczestnicy wymieniają wiadomości SIP w trybie transmisji unicast (czyli punkt-punkt), ale nie istnieje żadna „nadrzędna” relacja sygnalizacyjna pomiędzy wszystkimi uczestnikami, która świadczy o konferencji . Nie istnieje centralny punkt sterowania konferencją czy też serwer konferencyjny, a SIP nie jest wykorzystywany do tworzenia/niszczenia instancji konferencji.. Dane audio/video są transmitowane w trybie 25 Grupę multicast tworzą uczestnicy konferencji. Zaproszenie do konferencji odbywa się poprzez wysłanie wiadomości SIP INVITE z opisem sesji i adresem grupy multicast w polu SDP. Na poziomie sygnalizacji jest to zatem zwyczajny dialog SIP. Fakt, że dany terminal uczestniczy w konferencji, jest wnioskowany z informacji kontrolnej przekazywanej z danymi audio/video (np. z wykorzystaniem protokołu RTCP [8]).

Ze względu na zastosowanie techniki multicast do transmisji mediów konferencja loosely coupled conference jest też nazywana konferencją multicast. [53] [17] [18]

  • Konferencja tightly coupled conference – konferencja, w ramach której istnieje agent SIP (focus), który utrzymuje dialog SIP z każdym z uczestników konferencji. Agent ten steruje więc konferencją, stanowi centralny punkt kontroli. Może również zapewniać funkcję miksowania strumieni medialnych[19]. Jest adresowany poprzez adres URI konferencji. Protokołu SIP umożliwia jedynie przyłączenie/odłączenie terminala do/od takiego typu konferencji. Bardziej wyrafinowane funkcje muszą zostać zrealizowane w oparciu o dodatkowe mechanizmy.[14]

W sieci typu V OIP możliwe jest zrealizowanie każdego z powyższych typów konferencji. Jednakże rozważania zawarte w niniejszej pracy dotyczą jedynie konferencji typu tight coupled. Focusem dla takiej konferencji jest serwer mediów, którego pracą steruje serwer aplikacji.

Warto podkreślić, że blok focus może znaleźć zastosowanie w realizacji konferencji typu endpoint mixing oraz multicast (zakładając, że nawiązał relację sygnalizacyjną z uczestnikami konferencji). W ramach end point mixing conference, focus może dołączyć nowego uczestnika poprzez rozesłanie wiadomości re-INVITE do pozostałych uczestników, modyfikując dla nich opis sesji tak, że uwzględnia on dane nowego uczestnika. W efekcie nowy uczestnik otrzymuje strumienie medialne od pozostałych uczestników konferencji. W ramach multicast conference, focus może przesyłać uczestnikom konferencji wiadomość SIP z adresem grupy multicast w polu SDP. W efekcie strumienie medialne będą z terminali uczestników przesyłane na adres multicast.

  • Konferencja w trybie mieszanym

Oddzielną uwagę należy poświęcić tzw. konferencji w trybie mieszanym (mixed-mode conference). Jest to konferencja, w ramach której oprócz przesyłania strumieni audio/video, uczestnicy współdzielą także dane innego typu (prezentacja slajdów, grafika, współdzielenie tablicy do rysowania etc, plików, wysyłanie wiadomości tekstowych) lub całe aplikacje. Terminal SIP użytkownika musi posiadać tutaj dodatkową funkcjonalność umożliwiającą opisane współdzielenie. Jednakże w sytuacji, gdy użytkownik oddzielnie korzysta z terminala SIP UE i narzędzia do współdzielenia aplikacji ( np. Microsoft NetMeeting), mamy do czynienia z dwoma oddzielnymi usługami, a nie konferencją w trybie mieszanym.

Mechanizmy współdzielenia danych i aplikacji nie są ujęte w standaryzacji i są to raczej rozwiązania producenckie, oparte na technologiach internetowych. Wykraczają one poza protokół SIP i kontekst usługi konferencji zdefiniowanej w ramach architektury VOIP. Ponadto rozważane w niniejszej pracy sterowanie serwerem mediów nie obejmuje tych mechanizmów. Z tego względu konferencje typu mieszanego nie będą tutaj przedmiotem dalszych rozważań.

  • Miksowanie strumieni video w konferencji audiowizualnej.

Miksowanie strumieni video w ramach konferencji/połączenia wielostronnego może odbywać się w 3 trybach:

  • VAS – Voice Activated Switching – w zmiksowanym sygnale video wysyłanym do uczestników połączenia w danej chwili widoczny jest ten użytkownik, który aktualnie zabiera głos. Jeśli głos zabierze inny użytkownik – obraz video zostanie przełączony na niego. Przełączenie na podstawie detekcji głosu.
  • Continous Presence – wszyscy uczestnicy połączenia konferencyjnego są widoczni w zmiksowanym sygnale video. Ekran dzielony jest na ilość pół odpowiadającą ilości użytkowników, w każdym polu widoczny jest jeden użytkownik.
  • lecture mode – tryb wykładowcy – w strumieniu video wyświetlana jest tylko jedna osoba, tzw. wykładowca.
    • Zbiór zaawansowanych funkcji konferencyjnych

W kontekście usługi konferencji można powiedzieć, iż podstawowe funkcjonalności to rozpoczynanie lub kończenie konferencji, miksowanie strumieni oraz dołączanie/odłączanie uczestników. Wszystkie pozostałe funkcje należy traktować jako zaawansowane.

Organizacje standaryzacyjne nie zdefiniowały jednoznacznie zbioru zaawansowanych funkcji konferencyjnych, mimo iż istnieje szereg dokumentów opisujących różne mechanizmy wspierające realizację usługi konferencji. Efektem takiej sytuacji jest brak jednolitych rynkowych standardów. Przykładowo na potrzeby sterowania serwerem mediów przez serwer aplikacji (powiązanie tych dwóch modułów stanowi tutaj realizację bloku funkcjonalnego focus) zdefiniowano kilka konkurencyjnych protokołów. Każdy z nich został opisany przy udziale specjalistów pracujących dla różnych producentów systemów telekomunikacyjnych, w efekcie każdy z nich wspiera nieco odmienny zbiór zaawansowanych funkcji konferencyjnych. Z drugiej strony systemy konferencyjne obecne na rynku telekomunikacyjnym zawierają nierzadko innowacyjne funkcjonalności, nie objęte jeszcze przez proces standaryzacyjny.

W tym kontekście istnieje potrzeba zdefiniowania podstawowego zakresu wspomnianego zbioru. Jego zawartość ma bowiem kluczowe znaczenie przy analizie funkcjonalności serwera mediów (który wspiera realizację usługi konferencji), analizie porównawczej protokołów sterowania tym serwerem czy analizie funkcji całych systemów konferencyjnych złożonych z różnych modułów.

Przyjmijmy zatem, że do zaawansowanych funkcji konferencyjnych zaliczyć można:

  • Planowanie dokładnej daty i godziny rozpoczęcia konferencji oraz czasu jej trwania
  • Rozpoczynanie konferencji (czyli utworzenie instancji usługi konferencyjnej oraz rozpoczęcie pracy miksera i focusa) o wskazanym wcześniej czasie
  • Odtwarzanie komunikatów audio/video podczas konferencji (dla wszystkich lub wybranych uczestników) – np. o zbliżającym się zakończeniu konferencji lub o dołączeniu nowego uczestnika[20]
  • Interakcję z wybranymi użytkownikami podczas konferencji poprzez DTMF – umożliwia np. teległosowanie, czy też udzielanie pojedynczym uczestnikom słyszalnych tylko dla nich informacji (czas trwania konferencji, liczba uczestników etc)
  • Funkcjonalność floor control (termin ten pochodzi od angielskiego zwrotu to take the floor – zabrać głos – i oznacza sterowanie dostępem uczestników do „głosu”, czyli do medium, jakim jest strumień audio/video w konferencji.)

o Zwiększanie/zmniejszanie siły głosu poszczególnych uczestników konferencji

o Zarządzanie trybem uczestnictwa w konferencji

  • Tryb wykładu (lecture mode) – tylko jeden uczestnik konferencji (wykładowca) jest uprawniony do głosu (wysyłanie mediów – send media), pozostali mają prawo jedynie słuchać (odbieranie

mediów – receive media). Mogą zasygnalizować chęć zabrania głosu poprzez „podniesienie ręki”

  • Udzielanie/odbieranie prawa głosu innym uczestnikom konferencji

o Dopuszczenie do głosu tylko jednego uczestnika konferencji (tzw. tryb wykładowcy – lecture mode), podczas gdy inni mogą jedynie słuchać (odbierać strumień audio)

o Tworzenie subkonferencji (subconference) i konferencji pobocznych (sidebar conference) – czyli „konferencji w konferencji” o Łączenie kilku konferencji w jedną konferencję.


[1]  Przez przetwarzanie strumieni cyfrowych należy rozumieć wszelkie operacje na strumieniu bitów takie jak: kodowanie/dekodowanie, zmiana wartości bitów, synteza danych audio etc.

[2]  Dla ścisłości, tak zdefiniowana usługa multimedialna może również obejmować analogowe sygnały audio/video, jednakże w niniejszej pracy definicja odnosi się do sieci typu V2OIP – patrz rozdział 4.

[3]   W niniejszej pracy określenie strumienie cyfrowe audio/video jest stosowane zamiennie z określeniem „strumienie multimedialne”. Określenia te są równoznaczne.

[4]   skrót od waveform lub wave; Jest to standard zapisu dźwięku w formie pliku na komputerach typu IBM PC, opracowany przez firmy IBM i Microsoft. Zawiera najczęściej dane audio w formacie bezstratnym PCM, chociaż możliwe jest zastosowanie formatów stratnych.

[5]    Oznaczenie formatu plików zwanego QuickTime, opracowanego przez firmę Apple Inc. Pliki mov funkcjonuje jako tzw. kontener multimediów. Zawiera jedną lub wiele ścieżek, z których każda przechowuje dane określonego typu: audio, video, tekst etc. Format plików QuickTime stanowi podstawę standardu MPEG-4 Part 14.

[6]    Rozszerzenie pliku multimedialnego, który zawiera dane audio/video kodowane wg jednego ze standardów opracowanych przez grupę MPEG (Moving Picture Experts Group).

[7]    Przechodzenie między trybami wymaga renegocjacji parametrów sesji komunikacyjnej poprzez przesłanie wiadomości re-INVITE. Nie musi to być jednak konieczne – np. w sytuacji gdy do terminala SIP UE nagle zostanie zaprzestane wysyłanie strumienia video, strumień audio pozostanie bez zmian (zależy to jednak od implementacji terminala – niektóre terminale SIP UE mogą zerwać połączenie w przypadku, gdy nie będą już odbierać pakietów jednego ze strumieni. Z tego względu najbezpieczniej jest stosować mechanizm re-INVITE)

[8]   Przesyłanie tonów DMTF w tym samym kanale, co dane audio/video pochodzące z terminala.

[9]    Przesyłanie tonów DTMF w dedykowanym kanale komunikacyjnym, oddzielonym od kanału strumienia danych audio/video. Dla sieci V2OIP wykorzystujących protokół RTP rozwiązanie to zostało opisane w dokumencie RFC 2833.

[10] Funkcjonalność tę opisano w rozdziale 2.2.3.

[11] Spotkać się również można z określeniami legal interception, telephone tapping, wire tapping

[12] Communications Assistance for Law Enforcement Act

[13]  Jest to funkcjonalność opisana w dokumencie[12]. Umożliwia wymianę danych audio/video pomiędzy stroną wywołującą i wywoływaną w połączeniu zanim strona wywoływana dokona akceptacji sesji protokołu SIP. W praktyce bardzo często wykorzystywana w połączeniach na styku domen IP i komutacji pakietów. Np. gdy wywoływany z domeny IP terminal GSM jest wyłączony, centrala MSC odtwarza komunikat o niedostępności abonenta docelowego. Trafia on do abonenta SIP właśnie dzięki early media, mimo braku zestawionej sesji w znaczeniu SIP (nie dochodzi do ustanowienia połączenia).

[14]  Czyli takich, dla których istnieje centralny moduł utrzymujący sygnalizację z uczestnikami konferencji i zapewniający dostarczenie zmiksowanych strumieni audio/video.

[15]  Przedstawiona definicja poszerza definicję miksera zawartą w[8] o obsługę przez mikser strumieni, które nie bazują na protokole RTP (np. wiadomości natychmiastowych przesyłanych w ramach sesji usługi Instant Messaging & Presence, bazuj ących na protokole MSRP – Message Session Relay Protocol [32]).

[16] Real-time transport Protocol ([8]) – protokół zaprojektowany celem efektywnego przenoszenia danych audio/video w sieci IP

[17]   Zazwyczaj uczestnik konferencji wymienia tutaj wiadomości SIP tylko z jednym z pozostałych uczestników, a nie ze wszystkimi uczestnikami konferencji.

[18]   Sposób transmisji informacji do grupy adresów docelowych, który zakłada, że jeżeli dwa adresy znajdują się w lokalizacji, do której prowadzi ta sama ścieżka, wiadomość jest tą ścieżką wysyłana tylko raz, a następnie kopiowana, gdy ścieżka się rozdziela. Grupa adresów docelowych, do których wysyłana jest wiadomość, nazywana jest grupą multicast i posiada swój unikalny adres multicast..

[19] Możliwa jest sytuacja, w której funkcje focusa i miksera pełni jeden z terminali użytkownika. Wówczas konferencja jest jednocześnie konferencją typu end point mixing conference.

[20]   Można mówić o tzw. tajnym uczestnictwie w konferencji (secret participation) w przypadku, gdy dołączenie nowego uczestnika nie jest oznajmiane przez system poprzez odtworzenie komunikatu/dźwięku pozostałym uczestnikom lub o anonimowym uczestnictwie (anonimom participation) – gdy uczestnicy konferencji są informowani o dołączeniu nowego uczestnika, ale jego tożsamość pozostaje niejawna.

Definicja SI

Modelowanie rzeczywistości, komputery szachowe, HAL 9000… to wszystko bardzo zbliża nas do skonstruowania (zaprogramowania?) sztucznej inteligencji, jednak cały czas realizacja tej idei pozostaje na wyciągnięcie palców – tuż, tuż… Lecz czym właściwie jest SI? Obecnie nie ma jednoznacznej definicji, pozwalającej sprawdzić czy jakaś maszyna jest już SI czy jeszcze nie… Generalnie taka maszyna ma udawać ludzki umysł, jednak jest to bardzo nieprecyzyjne określenie. Przyjrzyjmy się więc, jak zdefiniowali sztuczną inteligencję dwaj badacze SI – Turing i Lem.

Test Turinga wygląda następująco: sędzia – człowiek – prowadzi rozmowę w języku naturalnym z pozostałymi stronami. Jeśli sędzia nie jest w stanie wiarygodnie określić, czy któraś ze stron jest maszyną czy człowiekiem, wtedy mówi się, że maszyna przeszła test. Zakłada się, że zarówno człowiek jak i maszyna próbują przejść test jako człowiek.

Test pochodzi od zabaw polegających na zgadywaniu płci osoby znajdującej się w innym pokoju przy pomocy serii pytań i odpowiedzi pisanych na kartkach papieru. W pierwotnym pomyśle Turinga uczestnik ludzki musiał udawać przeciwną płeć, a test był ograniczony do pięcio­minutowej rozmowy. Dziś nie uważa się tych cech za podstawowe i zasadniczo nie umieszcza w specyfikacji testu Turinga[1].

Stanisław Lem: „Decydującym kryterium, które dowodziłoby powstania sztucznej inteligencji, byłaby rozmowa z maszyną. Mój nieczłowieczy partner miałby za zadanie opowiedzieć własnymi słowami jakąś przedstawioną mu anegdotę lub historię, zachowując przy tym cały sens mojej opowieści. Dla ostrożności należałoby tego rodzaju test powtórzyć kilkakrotnie.” [Lem 2001]

Teraz więc pozostaje nam już tylko zająć się konstruowaniem maszyny spełniającej te testy, albo w przypadku kiedy nie jesteśmy inżynierami/kompu­terowcami, możemy zastanowić się nad sytuacją, kiedy zaprzężone do pozyski­wania danych maszyny SI, zetkną się z problemem przerostu popytu nad podażą…

Gdy zabraknie danych…

Zapotrzebowanie na informacje wzrasta z dnia na dzień (być może z minuty na minutę). Ludzie coraz częściej szukają danych w internecie, coraz więcej danych trafia do internetu… Coraz rzadziej ludzie szukają danych w realu. Wzrost wydajności indeksowania treści w internecie jest ogromny – Google chce zaindeksować CAŁY świat, lecz nie może tego zrobić, bo niektóre treści są nieindeksowalne. Być może treści takie będą (lub już są) blokowane/kasowane [por.: Lipszyc], tak jak na przykład w Chinach blokowane są treści dotyczące praw człowieka [zob.: Internet].

Może dojść do takiego momentu, że zapotrzebowanie na informacje w internecie, a w przyszłości w VR, będzie tak ogromne (i cenne), że SI zaczną fabrykować np. ilustracje, aby zaspokoić te potrzeby.

„Wszelka działalność podmiotu, jeśli ma kształtować tożsamość, musi posiadać odniesienie do pamięci. Wszelka percepcja odnosi się tyle do bodźców doświadczanych, co do pamięci, bez względu na to, czy mamy na myśli tożsamość społeczeństw, czy tożsamość jednostek, czy mówimy o tożsamości kształtowanej przez zewnętrzne postrzeżenia innych odnoszące się do podmiotu, czy o wewnętrznych spostrzeżeniach podmiotu odnoszących się do siebie samego.” [Brzeziński]

Brzeziński pisze o tym, że nie można stworzyć „czegoś z niczego”. Wszystko co powstaje, ma odniesienia, a właściwie jest pochodną tego co już było. Źródłem danych dla umysłu jest pamięć i ikonosfera [Porębski] – tak samo Sztuczne Inteligencje będą tworzyć nowe dane (m.in. wizualne) w oparciu o „to-co-było” [Barthes]

SI zaczną same tworzyć sztukę i kulturę[2], żeby mieć, co indeksować. Aby to robić, SI będą musiały korzystać z „infoikonosfery” [zob.: Kierus 2o06b], czyli stworzonego w internecie „wizualnego horyzontu możliwości wizualnych” [Szpociński]. Aby stworzyć perfekcyjną „podróbkę” SI muszą dokładnie analizować dotychczasowe obrazy powstałe w „realu”, fizykę światła, odbicia, bilans energetyczny. Już w tej chwili dostępne oprogramowanie działające na wyspecjalizowanych stacjach graficznych potrafi (oczywiście dzięki ludziom-operatorom) generować obrazy znacznie lepsze jakościowo od klasycznej fotografii. [zob.: Fotografia „wirtualna”] W kontekście tego co jest bardziej prawdziwe – fotografia wirtualna czy realna, warto przypomnieć anegdotyczną rywalizację pomiędzy Parrasjosem a Zeuksisem – polegający na tym, kto namaluje bardziej realne (czyt. hiperrealne) winogrona. Wygrał Zeuksis – do jego malowidła przylaty­wały wróble…[3]

Co gorsza, jak wiemy, sztuczne inteligencje prawdopodobnie będą w stanie się udoskonalać, a być może samoreplikować [por. Gibson] – ludzie zaczną być niepotrzebni [por. Matrix] – prawdopodobnie powstanie „podziemie” (odejście od technik cyfrowych) – zawsze jako „kontra” do zjawisk popularnych (pop) powstaje coś, co jest spowodowane wewnętrzną ludzką potrzebą przeciwstawienia się statystycznej „normalności”, czyli tzw. „off” [por. Matrix; Seksmisja; Kierus 2006a].


[1] za: Wikipedia [on-line] pl.wikipedia.org/wiki/Test Turinga (11.08.2006)

[2]  zob.: Bruszewski, W. (1988) Radio Ruine der Kunste Berlin. [on-line] voytek.pl/radio.htm (26.06.2006), zob.: Kierus, W. (2005-2006) Sztuczny Inteligent. [on-line] pracovnia.pl/sztuczny inteligent/ (26.06.2006)

[3]  zob.: portalwiedzy.onet.pl/26042….zeuksis.haslo.html (12.08.2006)

Globalna galeria

Posted: 7 listopada 2019 in prace magisterskie
Tagi:

Formułując swoją wizję „globalnej wioski”[1], McLuhan widział media elektroniczne, jako wielką nadzieję dla ludzkości. Miały one umożliwić ludziom komunikację na masową skalę, poprzez obalenie barier czasowych i przestrzennych [McLuhan 2001]. Obecnie te przewidywania w znacznej mierze się spełniły za pomocą środków personalnego przekazu elektronicznego (internet, telefony komórkowe). Dziś internet stał się nieodzownym narzędziem komunikacji międzyludzkiej, środkiem wymiany myśli i poglądów, stał się medium masowym. Żadne inne środki masowego przekazu, nigdy tak doskonale nie pomagały w rozpowszechnianiu fotografii. Postęp technologiczny związany z komunikacją jest tak szybki, że często nie nadążamy ze śledzeniem nowinek technicznych. Fotografia (zwłaszcza cyfrowa) odnalazła w internecie szczególnego sprzymierzeńca.

Śledząc historię obu zjawisk (zobacz: Kalendarium historii internetu i fotografii cyfrowej), zauważymy że w roku 1976 pojawiła się „pierwsza iskierka” prowadząca do wspólnej historii – pierwszy komputer osobisty przeznaczony do użytku w domu – Apple I. Był on tylko drewnianą skrzynką z procesorem taktowanym zegarem o częstotliwości 1 MHz (czyli o parę tysięcy razy wolniejszym niż nam współczesne procesory)[2]. Dopiero w 1983 roku, Steve Jobs tworzy LisaOS GUI – system operacyjny z okienkowym interfejsem graficznym[3]. W mniej więcej tym samym czasie, internet przechodzi metamorfozę od „wojskowego cacka” do instrumentu dla naukowców i studentów. Rok 1993 staje się datą przełomową dla związku fotografii z internetem – powstaje pierwsza graficzna przeglądarka internetowa Mosaic[4] [5] – umożliwiająca oglądanie zdjęć zamieszczonych w sieci. Rok później, na amatorski rynek trafia pierwszy fotograficzny aparat cyfrowy – Apple QuickTake 100, z matrycą o rozdzielczości 640 x 480 pikseli. W następnych latach pojawiły się kolejne aparaty: Kodak DC40 (1995), Casio QV-11 (1995), Sony Cyber-Shot (1996).

Od tego momentu lawina runęła… Dostęp do internetu staje się świetnym pretekstem do kupienia aparatu cyfrowego, a jednocześnie posiadanie aparatu cyfrowego pretekstem do podłączenia internetu. Coraz więcej ludzi znajduje się w zasięgu łączy internetowych i coraz więcej ludzi kupuje aparaty cyfrowe. Według badań rynku, liczba sprzedanych w Ameryce Północnej aparatów cyfrowych w roku 2005 osiągnie prawdopodobnie 26 milionów (16% wzrost w stosunku do poprzedniego roku). Według tych samych prognoz, w roku 2005 nasycenie gospodarstw domowych aparatami cyfrowymi osiągnie 55% [Info Trends/CAP Ventures 2005]. W 2006 roku sprzedaż aparatów cyfrowych osiągnie około 89 milionów sztuk, co da 15% wzrost w stosunku do roku 2005 [Info Trends/CAP Ventures 2006]. Nigdy w historii fotografii nie było takiego boomu, jaki spowodowała fotografia cyfrowa. Na obecnym stanie rozwoju daje ona ogromne możliwości – od natychmiastowego oglądania efektów na wyświetlaczu aparatu cyfrowego, poprzez łatwe archiwizowanie i wyszuki­wanie zdjęć (np. poprzez słowa kluczowe), po możliwość natychmiasto­wego przesłania fotografii w dowolny punkt świata np. za pomocą przenośnego komputera (+internetu) lub telefonu komórkowego. [7]

Rozwój internetu odbywał się wraz z rozwojem fotografii cyfrowej i na odwrót – oba czynniki oddziaływały i dopingowały się wzajemnie, choćby z powodu „zwizualizowania” naszego świata (komunikacji i kultury) [McLuhan, por. Kita, por. Hopfinger, por. Olechnicki], zagęszczenia stru­mienia danych budującego naszą ikonosferę [Porębski]. Obecnie dzięki internetowi „w zasięgu ręki” mamy porady techniczne, usługi, sklepy ze sprzętem i materiałami fotograficznymi, itp. Mamy też tysiące, setki tysięcy zdjęć zamieszczonych w sieci. Niektóre z tych zdjęć mogą być dla nas bezwartościowe (np. zdjęcie z imienin u czyjejś cioci), ale czasami możemy znaleźć fotografie intrygujące, historyczne, artystyczne itp. (upraszczając – wartościowe). Przez internet można uprawiać „marketing artystyczny” lub korzystać z niego jako niezależnego środka wyrazu. Wielką nadzieję dla sztuki głosi „cyberkulturowy kustosz” – Steve Dietz [za: Zawojski 2005], próbując oprócz „tworzenia w sieci” urzeczywistnić ideę „muzeum sztuki sieci”, jako archiwum net-artu[8]. Dietzowi chodziło oczywiście o „sztukę internetu”, a nie o fotografię, jednak tę ideę można by doskonale przenieść na pole fotografii. Wspaniałe zbiory fotografii w nowojorskiej MoMA są poza zasięgiem przeciętnego Europejczyka – sieć dałaby jednak możliwość ich zdalnego oglądania[10].

Globalna sieczka

Niestety, nie wszyscy widzą internet w tak pięknych barwach. Czasami, gdy próbujemy coś znaleźć pośród pleniących się kłączy sieci, utykamy w martwym punkcie lub jesteśmy zwodzeni na manowce intrygującymi lub fałszywymi linkami. Tracimy przy tym masę czasu, choć sieć miała ułatwić nam życie i przyśpieszyć wyszukiwanie danych. Problem straconego czasu w sieci dobrze ujmuje Eriksen, zauważając, że choć pozornie internet daje nam możliwość szybszego działania, to poprzez cykl czynności związanych z obsługą komputera i oprogramo­wania w efekcie ten czas tracimy [Eriksen]. Na przykład mamy łatwiejszą i szybszą możliwość komunikacji poprzez pocztę elektroniczną („e-mail”: komputer + sieć) w stosunku do tradycyjnej poczty („snail-mail”[11]: pismo ręczne + żaglowiec, parowiec, samolot), jednak w związku z tą łatwością wysyłania e-maili oraz przyzwyczajeniem do otrzymywania na nie szybkiej odpowiedzi, nawet na e-maile typu „cze, uots ap? co slychac?”, tracimy masę czasu na czytanie e-maili, segregowanie ich w paczki, kasowanie spamu[12], itp. „E-mail to błogosławieństwo dla nadawcy, ale dla odbiorcy może być przekleństwem” [op.cit. ].

Odkąd „globalna wioska” McLuhan’a rozszerzyła swoje terytorium i skurczyła swoje wnętrze, problem czasu, a właściwie prędkości zaczął być coraz bardziej istotny. Największym oponentem zachwytów McLuhana jest Paul Virilio[13] – teoretyk dromologii, nauki o prędkości, a właściwie jej negatywnych skutków. Virilio analizuje jak wynalazki służące zwiększaniu szybkości życia wpływają negatywnie na ludzkość. Eriksen tak pisze o poglądach Virilia: „Jak to ujął teoretyk prędkości, (…) żyjemy obecnie w czasach bez opóźnień. (…) Czas, rozumiany jako środek budowania dystansu i bliskości, przestał istnieć.” [op.cit.]. Czas w ogólnym pojęciu przestaje płynąć strumieniem, a zaczyna przeskakiwać w coraz krótszych odcinkach. Zanika też zjawisko zwane niegdyś podróżowaniem. Obecnie dzięki samolotom i samochodom, podróż nie jest poznaniem, doświadczeniem, eksperymentem – jest przeskokiem, przełączeniem się z punktu a do punktu b, przy całkowitej utracie orientacji. „Podróżując” po świecie wirtualnym nie przebywamy jakiejś liniowej trasy w przestrzeni – przeskakujemy od hiperłącza do hiperłącza[14], nie mamy nawet pojęcia gdzie (i czy w ogóle) się one znajdują w świecie rzeczywistym [Virilio].

Lata 90. charakteryzowały się niespotykaną euforią związaną z internetem. Wielkie banki inwestycyjne obiecywały krociowe zyski z inwestowania w branżę nowych technologii. Jednak euforia ta zakończyła się ogromnym rozczarowaniem, spowodowanym wielkim krachem dotcomów[15] (w samym USA straty inwestorów wyniosły około 5 miliardów dolarów). Oprócz załamania giełdy, załamały się też nadzieje związane z internetem jako panaceum na dolegliwości demokracji. Okazało się, że sieć nie zbliża wcale ludzi – nie jest „narzędziem demokratycznej polityki”, a wręcz przeciwnie, powoduje izolację ludzi, przeszkadzając demokratycznemu dialogowi [Bauman 2005]. Wolność, wypisana na sztandarach internetu, w znacznej mierze okazała się „wolnością kontrolowaną” przez rządy i koncerny medialne. Regulacje prawne dotyczące praw autorskich chronią głównie interesy pośredników (koncernów i ich prawników), a nie samych autorów [Lessig 2004]. Pamiętajmy jednak, że internet jest fragmentem „machiny mediów”. W xXl wieku trudno jest człowiekowi mieszkającemu w „cywilizowanym świecie” uciec od radia, telewizji, gazet, internetu… Z jednej strony członek społeczności cywilizowanej może się cieszyć, że ma szeroki dostęp do informacji, z drugiej strony powinien mieć świadomość, że codziennie poddawany jest manipulacji informacyjnej. Zarzucany jest stosem informacji, które nie są istotne dla jego wiedzy o świecie, a są „medialne”, czyli dobrze się „sprzedają” (pod względem politycznym lub komercyjnym) za pomocą kanałów medialnych.

Przyjęcie założenia, że internet to największa dostępna skarbnica wiedzy jest ze wszech miar słuszne, pod warunkiem, że wykazujemy się skrajną nieufnością. Szum informacyjny, którego dostarcza internet, trzeba starannie przefiltrować. W tym szumie pełno jest „kleksów”, czyli bezsensownych, przypadkowych, nieprawdziwych informacji. Oprócz „kleksów” znajdziemy jeszcze więcej informacyjnych „koni trojańskich”, które celowo są wpuszczane do sieci, aby zwodzić na manowce zbyt ufnych internautów. Na pierwszy rzut oka mogą one wyglądać całkiem wiarygodnie, lecz każdą informację trzeba dokładnie sprawdzić w innych źródłach. Zresztą najlepszą metodą manipulacji informacyjnej jest nie wprowadzanie „fałszywek”, ale generowanie szumu zastępczego. Jak pisze Kapuściński:

„dla historyka żyjącego w XXI wieku podstawowym źródłem wiedzy o naszym stuleciu (o XX wieku) będą archiwa telewizyjne, miliony kilometrów taśmy. Tymczasem w telewizji otrzymujemy wersję historii najbardziej wyselekcjonowaną i udramatyzowaną. Zooming kamery to jest także sposób widzenia świata: zbliżając fragment obrazu, eliminujemy wszystko inne” [Kapuściński].

Ilość internetowych galerii fotograficznych (stron będących zbiorem fotografii cyfrowych bądź zdigitalizowanych) osiągnęła taki poziom, że bardzo trudno odnaleźć jakieś interesujące nas zdjęcia.[16] Jest to klasyczny przykład „szukania igły w stogu siana” połączonego z „odsiewa­niem ziaren od plew”.

Internet nie rozwijał by się tak bez fotografii cyfrowej, a fotografia cyfrowa nie rozwijała by się bez internetu. Jest to fakt. Zwróćmy jednak uwagę, że internet jako przestrzeń jest tylko preludium – fazą wstępną do wirtualnej rzeczywistości. Zastanówmy się teraz, czym jest VR i jak będzie ona wpływać na losy sztuki oraz fotografii.


[1]  więcej: http://pl.wikipedia.org/wiki/Globalna wioska (24.08.2005)

[2]  więcej: http://www.apple-history.com/?page=gallery&model=aI (15.09.2005)

[3]  GUI – Graphical User Interface [więcej: http://pl.wikipedia.org/wiki/GUI (15.09.2005)]. Zarówno Steve Jobs (współtwórca Apple) jak i Bill Gates (Microsoft) próbowali stworzyć graficzny (okienkowy) system operacyjny opierając się na pracach prowadzonych przez

Xerox. Apple stworzyło LisaOS w 1983 roku, wyposażając nim komputer Lisa. W roku 1985 na rynku pojawiła się odpowiedź Microsoftu – Windows 1.0. Jobs zarzucał Gatesowi kradzież pomysłu, jednak Gates odpowiedział: „Nie, Steve, myślę, że to było tak jakbyśmy mieli wspólnego sąsiada o nazwisku Xerox, włamałeś się do jego domu żeby ukraść telewizor, na miejscu stwierdziłeś, że ja wcześniej to zrobiłem i powiedziałeś:

Hej, to nie w porządku! To ja chciałem ukraść telewizor!”. [za: http://www.apple-history.com/?page=gallery&model=GUI (15.09.2005)]]

[4]  więcej: http://en.wikipedia.org/wiki/Mosaic %28web browser%29 (15.09.2q05)

[5]  za: http://www.folklore.org/StoryView.py?project=Macintosh&story=Desk Ornaments.txt (27.07.2006)

[6]  za: http://members.fortunecity.com/pcmuseum/windows.htm (28.07.2006)

za: http://homepage.mac.com/cameradecollection/others/Pages/6.html (28.07.2006)

[8]  cykl fotografii wykonanych telefonem komórkowym, [więcej: http://free.art.pl/fotografie/daleko blisko (27.07.2006)]

[10] Obecnie w kolekcji on-line MoMA jest okołóo 200 fotografii [http://www.moma.org/collection (10.07.2006)]

[11] Snail mail – dosłownie „ślimacza poczta”; żargonowe, żartobliwe określenie klasycznej poczty, która jest znacznie wolniejsza od nowoczesnej poczty elektronicznej

[za: Helionica – sieciowa encyklopedia informatyki. http://helionica.pl/index.php/Snail mail (10.08.2005)]

[12] Spam to elektroniczne wiadomości masowo rozsyłane do osób, które ich nie oczekują, np. niechciane reklamy [za: Wikipedia. http://pl.wikipedia.org/wiki/Spam (10.08.2005)]

[13] Zobacz: http://www.cyberforum.edu.pl/postacie.php3?ITEM=12 (23.08.2005)

[14] Hiperłącze (ang. hyperlink) to zamieszczone w dokumencie elektronicznym (tekstowym, graficznym, wideo, animacji, PDF, HTML) odwołanie do innego dokumentu lub innego miejsca w danym dokumencie. Odwołanie takie związane jest z fragmentem tekstu lub obrazem – uaktywnienie hiperłącza (kliknięcie lub nadejście odpowiedniego momentu) powoduje otwarcie dokumentu docelowego.

[za: Wikipedia. http://pl.wikipedia.org/wiki/Hypertext (23.08.2005)]

[15] dotcom – strona internetowa przeznaczona do działań komercyjnych, również popularne określenie firmy handlowej opartej na internecie.

Nazwa ta pochodzi od .com – zakończenia adresu internetowego stron komercyjnych. [za: http://www.powernet.co.uk/client/general/glossary.shtml (25.08.2005), por. http://en.wikipedia.org/wiki/Dotcom (25.08.2005)]

[16] Po wpisaniu do wyszukiwarki Google zapytania o treści: photo gallery, Google zaproponowało około 1,010,000,000 stron WWW zaindeksowanych jako pokrewne z tym zapytaniem, wyświetliło też informację, że część stron zbyt podobnych pominięto w wynikach wyszukiwania [za: http://www.google.pl (27.07.2006)].

Łączna ilość stron WWW zaindeksowanych przez Google to ponad 8 miliardów stron WWW [za: http://www.google.pl (11.08.2005)]

„fotografia jest tak popularna jak coca-cola” [Lachowicz]

Kiedy w 1839 roku Daguerre ogłosił wynalazek fotografii, nikt nie spodziewał się jak potoczą się jej losy. Początkowo traktowano ją za mimetyczną „nowinkę techniczną”, lecz bardzo szybko zaczęto obawiać się, że fotografia oznacza „koniec malarstwa” (Paul Delaroche). Obawy te oczywiście były przedwczesne i nietrafione. Fotografia zmusiła tylko dotychczasowe malarstwo do przyśpieszonej ewolucji formalnej i merytorycznej, choć sama musiała czekać dziesiątki lat na uznanie jej jako dziedziny sztuki. Kiedy w końcu pogodzono się z faktem, że fotografia nie jest do końca tym co Arystoteles nazwał mianem mimezis, czyli sztuką naśladującą rzeczywistość, zaczęto doszukiwać się w niej znaczeń metafizycznych – śladu. Wątek fotografii jako „śladu” (przeszłości) poruszano już wielokrotnie w różnych kontekstach [por.: Michałkowska, Barthes: „fotografia = to-co-było”, Berger, Skarga…], dlatego nie będziemy się teraz tym zajmować. Odniesienie do minionej rzeczywistości przestało być takie oczywiste w momencie kiedy na scenę wkroczyła fotografia przetwarzana cyfrowo. Od tego momentu możemy mówić, że fotografia cyfrowa „żywi się” śladami przeszłości – korzysta z gotowych fotografii wykonanych wcześniej, często w innym celu. Podobnie jak pisze Derrida o fotografii rzeczywistej, istotą fotografii wirtualnej nie będzie odniesienie do rzeczywistości a odniesieniem do „bycia kiedyś”. Dla człowiek „zanurzonego” w VR tak samo istotne są wydarzenia wirtualne jak [Derrida].

Wraz z ogromną popularyzacją fotografii cyfrowej (przełom XX i XXI wieku) zaczęto doszukiwać się w niej zjawiska przełomowego – nie tylko nowej jakości, ale nowego rozdziału w historii fotografii. Nie da się ukryć, że pod względem popularności, łatwości obsługi i obróbki oraz niskich cen – jeszcze nigdy fotografia nie była tak bliska ludziom. Niestety, spowszednienie fotografii (będące tylko częścią szerszego zjawiska, które można nazwać wizualizacją świata) spowodowało znaczny spadek jakości i znaczenia fotografii w ogóle. Małe, niezbyt dobre jakościowo odbitki albo nawet tylko komputerowe pliki graficzne w znacznej mierze ustanowiły standard w fotografii.

Poza dostępnością, łatwością obróbki i stosowania komputerowych efektów specjalnych oraz wielkimi możliwościami gromadzenia, przechowywania i prezentowania (np. udostępniania w Internecie [por.: Kierus 2003]), cyfryzacja nie zmieniła nic w samej idei fotografii. To tylko jedna z nowych technik. Przejście z fotografii analogowej do cyfrowej można porównać do wprowadzenia aparatów i filmów małoobrazkowych Kodaka. Próba podnoszenia fotografii cyfrowej do rangi nowej dziedziny artystycznej (co robią niektórzy autorzy podpisując swoje zdjęcia nazwą „fotografia cyfrowa”, jakby to była co najmniej „akwaforta”, „węgiel”, czy „gwasz”…) jest zupełnie nietrafiona.

Początkowo fotografia cyfrowa była tylko nowym narzędziem, nie tworzyła nic innego niż fotografia klasyczna, inna była tylko forma rejestracji i zapisu. W obecnej chwili „analogowi klienci” foto-labów często nie zdają sobie sprawy, że ich zdjęcia nie są kopiowane na maszynach analogowych, tylko negatywy są skanowane a odbitki naświetlane cyfrowo laserem. Wśród ludzi zajmujących się fotografią, często pokutowało przeświadczenie, że cyfrowa fotografia jest „nieprawdziwa”, że matryca CCD[1] nie przekazuje energii światła tak jak robi to emulsja światłoczuła. To jest oczywiście prawda – energia nie jest przekazywana w taki sam sposób, ale jednak jest przekazywana.

Dla przeciętnego fotoamatora istotna jest możliwość robienia bardzo dużej ilości zdjęć bez ponoszenia dodatkowych kosztów (na tradycyjnym filmie małoobrazkowym można zrobić 36 zdjęć, aparatem cyfrowym na przeciętnym nośniku cyfrowym – paręset). Niewątpliwie rozdzielczość aparatów cyfrowych zaspokaja w zupełności potrzeby amatorów – bez problemu można wykonać cyfrową odbitkę formatu pocztówkowego (przy matrycy o rozdzielczości 3 Mpx – obecnie standardem jest znacznie większa rozdzielczość[2]), nie bez znaczenia jest też łatwa i darmowa (bez skanowania, itp.) możliwość skopiowania zdjęć do komputera, na płytę CD czy DVD, przetworzenia zdjęć za pomocą programu graficznego i błyskawicznego przesłania w dowolny punkt świata (za pomocą internetu) [Hopfinger]. Podobnie zawodowcy i artyści chętnie przechodzą na technikę cyfrową oszczędzając czas i pieniądze. Jak pisze Nowotka: „Praca na slajdach lub negatywach wiąże się zawsze z niepewnością co do ostatecznego wyniku. Wyjdzie, czy nie wyjdzie? A jak wyjdzie? A jak się coś popsuje, to trzeba będzie sesję organizować od nowa. Kto za to zapłaci? Cyfra likwiduje te problemy całkowicie. Efekt widzą od razu, mogą też przesłać podglądy pocztą elektroniczną” [Nowotka].

Jednak część ludzi fotografujących kieruje się zupełnie innymi pobudkami. Tradycjonaliści zawsze odrzucają nowinki techniczne, trzymając się starych i sprawdzonych mechanizmów i metod działania. Wielu fotografów twierdzi, że nie ma to jak klasyczne zdjęcie zrobione na srebrowym materiale światłoczułym[3]. I nie można im odmówić racji – możliwość wielkiego powiększenia, rozpiętość tonalna, charakterystyczny kształt ziarna, faktura barytowanego papieru… Fotografia cyfrowa jeszcze przez jakiś czas nie dogoni techniki analogowej w kategorii jakościowej.

Dopiero gdy fotografia zaczęła być masowo manipulowana cyfrowo, zetknęliśmy się z nową wartością w zakresie pojęcia fotografia cyfrowa. Jak mówi pochodzący z Chin artysta – Daniel Lee – jedną z najważniejszych rzeczy, jakie wydarzyły się w fotografii od wynalezienia aparatu, było pojawienie się programu Adobe Photoshop[4] [za: Zawojski 2006][5]. Zresztą zagadnienie to dotyczy ogólnie obrazu – nie tylko fotografii. Fotografia ma swojego Horowitza, który już w latach osiemdziesiątych tworzył „elektroniczne fotobrikolaże”, z kolei film ma Rybczyńskiego – prekursora montażu elektronicznego jako środka wyrazu artystycznego. Obaj ci twórcy posługują się komputerami, by stworzyć obraz taki jak sobie zaplanowali, a nie rejestrować taki, jaki akurat spotkali w rzeczywistości. Jak pisze Zawojski:

„Można postawić zarzut, iż takie operowanie rzeczywistością, wykorzystywanie jej do tworzenia ‘innych światów’, ‘światów niemożliwych’ w duchu Escherowskim[6], doprowadza w rezultacie do całkowitego zaniku realności, Baudrillardowskiej ‘agonii realnego’. Nieskończone symulacje i transformacje rzeczywistych obiektów w celu wykreowania obrazów, które ‘pięknie kłamią’, służą niewątpliwie poszerzaniu wyobraźni, jednocześnie jednak zamazują epistemologiczną pewność obcowania z tym, co jest prawdą i fałszem, rzeczywistością i iluzją.” [Zawojski 2000]

Równie „epokowym” zjawiskiem (będącym oczywiście konsekwencją pojawienia się fotografii cyfrowej) jest pojawienie się fotografii w internecie.

Internet a fotografia cyfrowa

Dawniej życie toczyło się powoli. Nikt się nie śpieszył. Dziś tylko w krajach mniej rozwiniętych gospodarczo, takich jak kraje Afryk, Ameryki Południowej czy Azji Południowo-Wschodniej czas jest mierzony od wydarzenia do wydarzenia, a nie dyktowany wskazówkami zegara. W Europie też tak było, jednak od czasów ery uprzemysłowienia (XIX w.) tempo upływania czasu diametralnie wzrosło. Goban-Klas bardzo dobrze ilustruje ten fakt za pomocą „zegara postępu technologicznego”.

„Wyobraźmy sobie, iż cały okres od powstania mowy artykułowanej

aż do roku 2000 naszej ery uznamy za odpowiednik jednej pełnej

doby, czyli dwudziestu czterech godzin. Na takim zegarze jedna

godzina reprezentuje aż tysiąc pięćset lat.” [Goban-Klas 2002]

  • północ (początek metaforycznej doby) – około 360. stuleci temu – porozumiewanie się za pomocą gestów,
  • ósmej rano – 12 tys. lat p.n.e. – malowidła naskalne,
  • 20:00 – pierwsze systemy zapisu mowy,
  • 20:40 – hieroglify egipskie,
  • 21:38 – alfabet,
  • kilka minut po 22:00 – pierwsze zapisane utwory literackie,
  • 23:30 – ruchoma czcionka Gutenberga,
  • 23:53 – prasa drukarska napędzana parą, w tej samej minucie powstaje telegraf,
  • 23:55 – powstaje telefon i gramofon,
  • 23:55:47 – radiotelegrafia,
  • 23:57:04 – kino,
  • 23:57:50 – kserografia,
  • 23:57:52 – tranzystor,
  • 23:58:02 – telewizja kolorowa,
  • 23:58:16 – zostaje wystrzelony w kosmos pierwszy sztuczny satelita Ziemi,
  • 23:58:20 – skonstruowano radio stereofoniczne,
  • 23:58:59 – magnetowid,
  • 23:59:11 – komputer osobisty, odtwarzacz laserowy,
  • 23:59:20 – pojawia się internet i strony WWW,
  • 00:00:00 – „katastrofa roku 2000”.[7] [Goban-Klas 2002]

Nasze czasy to już zupełnie inna epoka niż poprzednie. Możemy przyjąć, że jesteśmy w fazie maksimum „trzeciej fali” (1 fala – społeczeństwo agrarne, 2 fala – przemysłowe, 3 fala – informatyczne) [Toffler], lecz prawdopodobnie nadchodzi kolejna „fala” (być może jesteśmy już w jej fazie wstępnej) – fala społeczeństwa wirtualnego. Patrząc na zjawisko przyśpieszenia dziejów pod kątem komunikacji znajdujemy się obecnie w epoce komunikacji wizualno-obrazkowej (historia komunikacji [Goban-Klas 2002]: epoka werbalna, epoka pisma – Gutenberga [McLuhan], obrazkowa), gdy społeczeństwo będzie już całkowicie wirtualne, trzeba będzie chyba odłożyć na półkę historię komunikacji, gdyż wszystko będzie komunikacją digitalną, niezależnie jaką formę będzie przyjmować.

Widzimy więc, że historia technologii i komunikacji od zawsze były ze sobą splecione, obecnie widać to szczególnie wyraźnie na podstawie wspólnej historii fotografii cyfrowej i internetu, dwóch zjawisk które mogły by istnieć bez siebie, lecz nigdy nie nabrały by takiej dynamiki rozwoju i takiego znaczenia. Przyjrzyjmy się teraz kalendarium:

Kalendarium historii internetu[8] i fotografii cyfrowej[9] [10]:

1945 – Vannevar Bush publikuje w Atlantic Monthly artykuł As We May Think27, gdzie przedstawione zostają idee leżące u podstaw hipertekstu.

1951 – pierwszy magnetowid na taśmę (Video Tape Recorder) oparty na matrycy CCD.

  • – ZSRR wystrzeliwuje Sputnika.
  • – USA formuje agencję ARPA (Advanced Research Projects Agency
  • Agencja Rozwoju Zaawansowanych Projektów) – w odpowiedzi na radzieckiego Sputnika.

1961 – Leonard Kleinrock tworzy pierwszą teorię przełączania pakietów

1964 – Paul Baran publikuje raport On Distributed Communications Networks29 z propozycja zdecentralizowanej sieci komputerowej, która może działać nawet w przypadku awarii wielu węzłów. Propozycja ta leży u podstaw utworzenia kilka lat później ARPANET.

  • – ARPANET powstaje jako 4 węzłowa sieć. Pierwszymi wysłanymi pakietami była próba zalogowania się na zdalny system. Zakończyła się zawieszeniem systemu kiedy litera „G” z wyrazu LOGIN została wysłana.
  • – Uruchomiona została pierwsza wersja FTP (File Transfer Protocol), dzięki któremu powstały w internecie biblioteki programów, a także sterowników do sprzętu, dokumentacji.
  • – Ray Tomlinson30 tworzy pierwszy program pocztowy wykorzystujący sieć ARPANET.
  • – Program pocztowy zostaje zmodyfikowany, od tego roku używany jest znak @ oddzielający nazwę użytkownika od adresu węzła (autorem zastosowania „małpy” jest wspomniany wcześniej Tomilson). Następuje pierwsza tekstowa pogawędka na żywo przez sieć. Powstaje Telnet, aplikacja pozwalająca na zdalną pracę na odległych komputerach. Texas Instruments zgłasza patent na aparat fotograficzny „bez-filmu” – w praktyce jest to magnetowid rejestrujący obraz jako stop-klatkę.
  • – Do ARPANET’u włączone zostają pierwsze instytucje spoza Stanów Zjednoczonych.
  • – Po raz pierwszy pojawia się słowo internet, w opracowaniu badawczym dotyczącym protokołu TCP, napisanym przez Vintona Cerfa (wraz z Bobem Kahn’em[14] [15]) – „A Protocol for Packet Network Intercommunication”32. W uznaniu za tą i inne zasługi Vinton Cerf jest znany jako „ojciec internetu”.

1976 – pierwszy komputer osobisty przeznaczony do użytku w domu – Apple I.

1979 – Powstaje Usenet, tekstowe grupy dyskusyjne. Dziś Usenet to ponad 50 tysięcy grup i miliony użytkowników, czytających i biorących udział w dyskusjach.

  • – Sony prezentuje pierwszy komercyjny, cyfrowy aparat Mavica[16]. Obraz jest zapisywany na dyskietkach (później pojawiła się wersja zapisująca na płytach CD-R, Memory Stick, itp), a następnie odtwarzany w magnetowidzie jako „stop-klatka”.
  • – W sieci komputerowej pojawiają się uśmieszki (smileys 🙂 :-* :-(), tekstowe znaczki wyrażające emocje („emoticony”), dziś powszechnie używane w poczcie, grupach dyskusyjnych i SMS’ach.
  • – Od ARPANET odłączona zostaje jej część wojskowa, tworząc MILNET. W ARPANET hosty i sieci zaczynają używać protokołu TCP/IP. Powstaje właściwy internet. Powstaje LisaOS GUI – system operacyjny z interfejsem graficznym.
  • – Do rozwoju internetu włącza się National Science Fundation, tworząc NSFNET, sieć coraz szybszych superkomputerów wykorzystywanych do celów naukowych. Zostaje opublikowana specyfikacja dNs (Domain Name System)[17].
  • – William Gibson pisze swą najsłynniejszą powieść fantastyczno-naukową (a właściwie „cyberpunkową”) – „Neuromancer” [Gibson], gdzie używa słowa cyberspace (cyberprzestrzeń). Wiele z przedstawionych w Neuromancerze koncepcji można odnaleźć w dalszym rozwoju internetu.
  • – W Polsce powstaje elektroniczne pismo Donosy, założone przez Ksawerego Stojdę. Pismo to jest wysyłane pocztą elektroniczną i istnieje do dziś[18].
  • – Tim Berners-Lee[19] tworzy World Wide Web, system pozwalający autorom na połączenie słów, zdjęć i dźwięku, początkowo pomyślany dla wsparcia naukowców zajmujących się fizyka w CERN. W maju Polska zostaje przyjęta do EARN, części sieci BITNET. Kodak prezentuje Photo CD – standard do zapisu elektronicznych obrazów.
  • – 17 sierpnia pierwsza wymiana poczty elektronicznej między Polską a światem, uważana za początek internetu w Polsce[20].
  • – Na wiosnę następuje pierwsze włamanie z Polski do komputera za granicą.
  • – Pojawia się Mosaic, pierwsza graficzna przeglądarka World Wide Web.
  • – pierwszy amatorski aparat cyfrowy – Apple QuickTake 100.

[1]  zobacz: http://pl.wikipedia.org/wiki/CCD (29.07.2006)

[2]  31 lipca 2006 roku, Samsung wprowadził na rynek telefon komórkowy SCH-a990.

Jest on wyposażony m.in. w: fotograficzny aparat cyfrowy z matrycą 3,2 Mpx, zoom’em i redukcją „czerwonych oczu”, lampę błyskową, camcorder… i wiele innych funkcji.

[za: http://www.samsung.com/Products/wirelessphones/index.htm (9.08.2006)]

[3]  czy też innymi „niestandardowymi” technikami fotograficznymi jak polaroid, Lomo, czy fotografia otworkowa [Kierus 2006a, por. Tomaszczuk, por. Michałkowska]

[4]  Adobe wypuściło na rynek program Photoshop 1.0 w lutym 1990 (wersja na Mac’a)

[za: http://www.storyphoto.com/multimedia/multimedia photoshop.html (13.08.2006)]

[5]  zob.: http://www.adobe.com/products/photoshop/ (9.08.2006)

[6]  chodzi tutaj o Maurits Cornelis Escher’a (1898-1972) – artystę tworzącego „dzieła plastyczne z zawartością matematyczną”, najbardziej znane jego prace to tzw. „figury niemożliwe” czy też „światy niemożliwe”.

Więcej: http://www.mcescher.com/ (15.08.2006)

[7]  tu widać, że Goban-Klas pisał ten tekst wcześniej niż okazało się, że panika związana z rokiem 2000 została sztucznie wywołana przez producentów sprzętu komputerowego, w celach zwiększenia sprzedaży. Jednak samo zjawisko sztucznej „katastrofy” świadczy dobitnie o tym, jak łatwo ludzie przyjęli komputery jako rzecz naturalną, nie wnikając zbytnio w to co mieści się w „blaszanym pudełku”. Przyjęli to jak magię – korzystając z tego w pełni, jednocześnie bojąc się.

[8]  Bardziej szczegółowe kalendarium historii internetu [on-line]: http://www.winter.pl/internet/historia.html (28.07.2006)

[9]  więcej: http://inventors.about.com/library/inventors/bldigitalcamera.htm (29.07.2006)

[10] Bush, V. (1945) As We May Think [w:] Atlantic Monthly 07/45 [on-line] http://www.theatlantic.com/unbound/flashbks/computer/bushf.htm (28.07.2006)

[11] Kleinrock, L. (1961) Information Flow in Large Communication Nets [on-line] http://www.lk.cs.ucla.edu/LK/Bib/REPORT/PhD (28.07.2006)

[12] zob.: http://www.rand.org/about/history/baran.list.html (28.07.2006)

[13] zob.: http://pl.wikipedia.org/wiki/Ray Tomlinson (28.07.2006)

[14] zobacz: http://en.wikipedia.org/wiki/Bob Kahn (28.07.2006)

[15] [on-line] http://www.cs.berkeley.edu/~istoica/classes/cs268/papers/ck74.pdf (28.07.2006), więcej o Cerf’ie: http://en.wikipedia.org/wiki/Vinton Cerf (28.07.2006)

[16] więcej: http://en.wikipedia.org/wiki/Mavica (29.07.2006)

[17] DNS – Domain Name System – usługa służąca do nazywania miejsc sieciowych „ludzkimi” słowami (np.: http://www.radiomaryja.pl/), a nie numerami IP (np.: 212.76.37.144).

[18] zobacz: http://info.fuw.edu.pl/donosy/ (28.07.2006)

[19] zobacz: http://en.wikipedia.org/wiki/Tim Berners-Lee (28.07.2006)

[20] w praktyce było to pierwsze wykorzystanie protokołu TCP/IP.

Dokonał tego Rafał Pietrak z Instytutu Fizyki Uniwersytetu Warszawskiego, łącząc się z Janem Sorensenem z Uniwersytetu w Kopenhadze.

[za: IAR, więcej: http://www.radio.com.pl/iar/news.aspx?iID=2469206 (21.082006)]

Co nazywamy „fotografią wirtualną” dziś, czyli w czasach kiedy nie ma jeszcze wirtualnej rzeczywistości? Potocznych zastosowań tego terminu jest co najmniej kilka. Pierwszym które zaczęło się pojawiać w ustach Ziemian, było nazywanie tym terminem, po prostu fotografii cyfrowej (w początkowej fazie pojawienia się cyfrowych aparatów fotograficznych). Z chwilą pojawienia się internetu w real’u i cyberpunka w literaturze terminem tym zaczęto nazywać fotografie umieszczone w galeriach internetowych („wirtualnych”). Jednak obecnie, ten termin pojawia się już tylko w kontekście komputerowych i internetowych technologii próbujących (czasami z niezłym skutkiem) naśladować rzeczywistość. Jako pierwszy przykład proponuję QTVR (Quick Time Virtual Reality) – system firmy QuickTime, imitujący wrażenie przestrzenności (powstaje to na zasadzie połączenia wielu panoramicznych zdjęć, w taki sposób, że oglądający ma wrażenie że znajduje się wewnątrz wytapetowanej sfery). Następną sprawą, którą potocznie nazywa się „fotografią wirtualną” są foto- realistyczne obrazy [Wojnecki 2005b] tworzone za pomocą komputerów.

Internet

„Miejsca, w których neurony komunikują się ze sobą, to synapsy. Każdy z ponad 100 miliardów neuronów mózgu ma przynajmniej 1000 takich kontaktów. Ze względu na sposób przekazywania informacji możemy wyróżnić dwa typy synaps: elektryczne i chemiczne” [Górska]. To jest oczywiście opis budowy mózgu. Gdyby jednak niektóre słowa zamienić, np. neurony na komputery i serwery, synapsy na łącza, mózg na sieć, a elektryczne i chemiczne na kablowe i radiowe, mielibyśmy idealny model internetu. Internet to jest „globalna sieć sieci”, czyli największa sieć komputerowa na świecie (oparta na tzw. protokole komunikacyjnym TCP/IP – Transfer Control Protocol/Internet Protocol), łącząca sieci lokalne. Internet nie posiada głównego centrum, przypomina plaster miodu lub owoc granatu, jest zlepkiem małych składników, które w swojej masie stanowią całościową konstrukcję, przy czym zniszczenie jednego składnika w niewielkim stopniu osłabia całość.

Pomysł stworzenia sieci rozproszonej, przyszedł do głowy amerykańskim generałom, którzy obawiali się wojny nuklearnej i chcieli stworzyć system dowodzenia odporny na precyzyjne, punktowe ataki. Na szczęście stworzony przez nich organizm, znalazł inne zastosowania, do czego przyczynili się studenci i naukowcy (czyli byli studenci) amerykańskich uczelni.

Dziś internet jest symbolem wolności i równości. Chociaż wiele firm (np. Microsoft) i wielu polityków usiłuje wprowadzić jakieś narzędzia do kontroli i cenzury sieci, to na szczęście znacznie więcej osób broni wolności internetowej (w USA wolność słowa gwarantuje IV poprawka do Konstytucji – dotyczy to także internetu). Dzięki temu, internet stał się medium komunikacyjnym dla artystów, ekologów, antyglobalistów, terrorystów no i oczywiście „normalnych ludzi” na całym świecie[1] [2]. Oczywiście wolność w internecie jest „pustym słowem”, to tylko simulacrum… Chiński rząd bardzo skutecznie blokuje swoich obywateli od tzw. niepożądanych treści. Właściwie to co jest w Chinach to nie internet, a duży intranet za ogromnym firewall’em, zwanym potocznie Great Firewallu.

Wielu specjalistów i historyków porównuje powstanie internetu (a właściwie stron WWW) do „wynalezienia druku”[3] przez Gutenberga [por. McLuhan]. Trudno nam dziś ocenić, czy jest to równie rewolucyjny wynalazek, ale na pewno daje wiele możliwości i ułatwia życie. Internet to najwydajniejsze i najtańsze medium do komunikacji między ludźmi na całym świecie. Dopiero teraz, kiedy tylu ludzi może korzystać z internetu, pojęcie „globalnej wioski” [op.cit.] stało się rzeczywistością, z tym, że jest to „wirtualna globalna wioska”. W dzisiejszych czasach z internetu korzysta co najmniej miliard użytkowników[4] w ponad 220 krajach[5], wiele tysięcy ludzi pracuje w firmach związanych z internetem, a dodatkowo kilka tysięcy zajmuje się łamaniem prawa przez internet. Każdy z tych użytkowników może w ciągu paru sekund wysłać wiadomość multimedialną (tekst, obraz, dźwięk), porozmawiać „na żywo” (chat, telefonia internetowa – np. Skype[6]), czy po prostu „posurfować”[7] po internecie. Użytkowników internetu przybywa z dnia na dzień, a prawie codziennie w sieci pojawiają się nowe serwisy i nowe usługi z których może korzystać każdy podłączony do sieci mieszkaniec Ziemi.

[1]  internet jako medium informacyjne odegrał ostatnio ogromną rolę jako medium demokratyczne – nie cenzurowane, nie sterowane przez koncerny medialne, polityków itp. To dzięki internetowi świat dowiedział się o powstaniu Zapatystów z Meksyku, informacje z frontu w 1 wojnie w Zatoce Perskiej docierały do społeczeństwa światowego szybciej niż przez media oficjalne, które były w pełni cenzurowane. Podobnie w czasie wielkiej katastrofy – Tsunami w 2005 roku, ludzie odszukiwali swoich znajomych i rodziny właśnie dzięki internetowi. Dobrym przykładem takiego serwisu „demokratycznego” jest np. GNN (http://www.guerillanews.com (27.07.2006)).

Warto też zobaczyć serwis poświęcony szczytowi nt. praw autorskich i własności wspólnej w internecie [Creative Commons – http://www.creativecommons.pl (27.07.2006)], który jest redagowany przez wszystkich uczestników w sposób całkowicie bez cenzury: http://www.icommons.org/isummit/ (27.07.2006)

[2]  każdy z nas pewnie słyszał o chińskim Wielkim Murze – w naszych czasach ta idea odrodziła się. Nowa, internetowa wersja Muru jest o wiele lepsza i skuteczniejsza, oczywiście dzięki takim koncernom jak Yahoo, Microsoft, Google, Cisco – koncernom z „kraju wolności”, czyli Stanów Zjednoczonych. Yahoo przyznał się nawet do tego, że przekazał chińskim służbom bezpieczeństwa informacje, dzięki którym chiński dziennikarz – Shi Tao (zobacz: http://en.wikipedia.org/wiki/Shi Tao (28.07.2006)), trafił do więzienia na 10 lat za propagowanie w sieci „zakazanych treści”

[za: http://www.egospodarka.pl/16241 .Yahoo-Microsoft-i-Google-ignoruja-prawa-czlowieka, 1,12,1.html (27.07.2006),

por. http://web.amnesty.org/pages/chn-310106-action-eng (27.07.2006)].

Google z kolei zgodziło się w kwietniu 2006 na wdrożenie specjalnej, cenzurowalnej wersji wyszukiwarki pod nazwą „GuGe” („Gu” – oznacza dolinę,

„Gue” – pieśń) [za: Gazeta Wyborcza, 14 kwietnia 2006, s. 29], od czerwca 2006,

URL www.google.com nie jest już dostępne z wewnątrz Chin [więcej: http://www.webpronews.com/topnews/topnews/wpn-60- 20060609ChinaRepeatsWhatGoogleWasSaying.html (27.07.2006), http://www.webpronews.com/insiderreports/searchinsider/wpn-49-

20060607GooglecomVanishesFromChina.html (27.07.2006)].

Mechanizm działania Great Firewall jest prosty, dzięki urządzeniom Cisco monitorowane są wszystkie pakiety danych przechodzące przez łącza chińskie, jeśli zostaną wykryte słowa zakazane (np. dotyczące placu Tiananmen, Tybetu czy praw człowieka) połączenie zostaje zablokowane z obu stron [Meller].

[3]  oczywiście Gutenberg nie wynalazł druku – jest to tylko potoczne powiedzenie, faktycznie jednak miał ogromny wpływ na rozwój druku, gdyż udoskonalił „ukradziony wynalazek” – skonstruował prasę drukarską modyfikując prasę introligatorską oraz zastosował odlewaną z ołowiu (zamiast drewnianej) czcionkę ruchomą, która pozwoliła na druk większych objętościowo wydawnictw książkowych w większych (jak na tamte czasy) nakładach. „Biblia Gutenberga” ukazała się drukiem w 1455 roku

[zob.: http://pl.wikipedia.org/wiki/Biblia Gutenberga (11.06.2006)].

[4]  w marcu 2006 roku, na całym świecie, internet ma 1 022 863 307 użytkowników, co stanowi 15,7% populacji [za: http: / /www. internetworldstats. com/stats. htm]. Jak przewiduje Robert E. Kahn – współtwórca protokołu TCP/IP (obecnie przewodniczący CEO Corporation for National Research Initiatives), za dziesięć lat internet będzie miał „dwa do trzech miliardów użytkowników, więcej urządzeń sieciowych niż ludzi, ogromne archiwa zasobów rozrywkowych, dużo rozwiązań związanych z zarządzaniem różnorakimi urządzeniami z dostępem do sieci, popularność dostępu bezprzewodowego, mnogość połączeń światłowodowych/kablowych dla użytkowników domowych, komórki w pełni obsługujące Internet, dużo bardziej wyrafinowane usługi wyszukujące, z istotnymi elementami wertykalnymi, większe znaczenie pracy grupowej, ważne transakcje finansowe poprzez sieć, bardziej zróżnicowane reklamy on-line, działający międzyplanetarny Internet pomiędzy Ziemią i Marsem, a w przyszłości – kolejnymi planetami” [za: http://www.internetstandard.pl/news/92007.html (8.06.2006)]

[5]  jak podaje Internet Systems Consortium, Inc. (ISC), w styczniu 2006 namierzono około 400 milionów komputerów (hostów) podłączonych do internetu

[za: http://www.isc.org/index.pl?/ops/ds/host-count-history.php (8.06.2006)].

Z kolei według danych CIA, pod koniec roku 2005, stały dostęp do internetu funkcjonował w 224 krajach świata

[za: http://www.cia.gov/cia/publications/factbook/rankorder/2153rank. html]

[6]  Skype – najpopularniejszy obecnie system telefonii internetowej. W kwietniu 2006,

Skype zanotowal 100 milionow zarejestrowanych uzytkownikow

[za: http://about.skype.com/2006/04/ (7.06.2006)]

[7]  „surfować” lub „serfować” (ang. surfing – ślizganie się) – po raz pierwszy sformułowania surfing użył Jean Armour Polly w swoim artykule o internecie (1992); oznacza ono swobodne „ślizganie się” po stronach WWW, przeskakiwanie z jednej na drugą, podążanie za linkami (hiperłączami)

Fotografia w Internecie

Posted: 5 czerwca 2019 in prace magisterskie

Internet to nie tylko komputery spięte siecią, to również zasoby internetowe, czyli strony WWW, serwery FTP oraz bazy danych, to również ludzie, tzw. internauci, którzy codziennie korzystając z internetu tworzą (czasami nieświadomie) ten „organizm”. Podobnie można powiedzieć, że internet to nie tylko strony WWW. W internecie udostępnionych jest wiele różnych usług sieciowych. Oto najważniejsze z nich:

  • http – Hyper Text Transfer Protocol – udostępnianie, tworzenie i oglądanie stron WWW,
  • e-mail – poczta elektroniczna,
  • chat/irc – pogawędki i rozmowy przez Internet w czasie rzeczywistym,
  • streaming – transfer strumieni danych multimedialnych na żywo (telefonia internetowa, radio i telewizja internetowa),
  • ftp – File Transfer Protocol – udostępnianie i przesyłanie plików komputerowych (nawet znacznej wielkości),
  • peer-to-peer – (p2p) systemy wymiany plików bezpośrednio pomiędzy komputerami internautów, bez pośrednictwa serwerów plików,
  • usenet – grupy dyskusyjne, czyli wysyłanie i czytanie news’ów,
  • forum – grupy news’owe zrealizowane za pomocą stron WWW,
  • telnet – zdalny dostęp do komputerów.

Stąd już tylko krok do zrozumienia, dlaczego internet i fotografia cyfrowa wzajemnie się pobudzają do rozwoju, ale o tym za chwilę. Najpierw przyjrzyjmy się starciu pomiędzy fotografią cyfrową a analogową. [1]


[1] za: Internet Software Consorcium isc.org/index.pl?/ops/ds/ (25.06.2006)

Ciągły wzrost zatrucia środowiska doprowadził do wprowadzenia nowych i bardziej surowych ustaw dotyczących ochrony środowiska. Przede wszystkim dotyczy to samochodów rejestrowanych po raz pierwszy, które w myśl tych ustaw muszą być wyposażone w katalizator. Tłumik katalityczny, trzyścieżkowy z sondą Lambda jest, biorąc pod uwagę współczesną technologię, rozwiązaniem najbardziej nowoczesnym, jeżeli chodzi o zmniejszenie substancji szkodliwych, produkowanych przez silniki. Pozwala on na wyeliminowanie ponad 90% HC, CO i NOx, ale nie może prawidłowo funkcjonować wyłącznie z systemami zasilania regulowanymi elektronicznie. Dlatego też wyprodukowano i opatentowano urządzenie, które pozwala na przerobienie na LPG pojazdów posiadających katalizator. Urządzenie, które integruje się perfekcyjnie ze

splotem elektronicznym i dynamiki płynnej samochodu, zmniejszając ostatecznie emisje substancji trujących i które pozwala na korzystanie z korzyści oferowanych przez LPG i które potrzebuje w każdym bądź razie urządzenia Lambda Gas gwarantującego perfekcyjne spalanie LPG, urządzenie to zarządza przechodzeniem automatycznym z benzyny na gaz. Realizacja instalacji gazowej z urządzeniem Lambda Gas pociąga za sobą zastosowanie nowych rozwiązań szczególnych takich jak:

– Centralka kontrolna do wiązania odprowadzanych sygnałów z centralki wtrysku według schematów odpowiadających różnym modelom samochodów.

– Urządzenie kontrolne uruchamiające do dołączenia na rurze wyjściowej LPG z reduktora. Ma to miejsce na bazie, który pochodzi z centralki kontrolnej i jest w stanie uregulować przepływ LPG bezpośrednio do mieszacza.

– Przełącznik jest okablowany i łączy bezpośrednio z centralką, pozwala na przełączenie i powiadamia użytkownika o wypadku złego funkcjonowania.

 

Miernik nośności powietrza

Mogą nimi być debimetr K, debimetr łopatkowy z częścią ruchomą o różnym kształcie, debimetr z przewodem cieplnym lub też system speedy-density (szybko zgęszczacz). Wśród tych systemów, te które mają części ruchome i których amplituda jest kontrastowana przez sprężyny (debimetr łopatkowy) i przez siły pochodzące z ciśnienia benzyny (debimetr K), tworzą się w rurociągach zasysania straty (ubytki) załadowania mające zasady generalnie niezgodne z tymi niezbędnymi dla prawidłowego zasysania LPG.

Podczas działania na gaz muszą więc zostać otwarte w sposób sitowy, chyba że nie pociągnie to za sobą dodatkowych problemów. W systemach wielopunktowego wtrysku Motronic np. otwarcie debimetru pociąga za sobą bezwarunkową rozmaitość wyprzedzenia zapłonu. W tych przypadkach wskazane jest zainstalowanie mieszacza na górze debimetru lub też wykonanie kompensacji ciśnienia. System z przewodem cieplnym i systemy speedy-density natomiast nie pociągają za sobą zmian w zasadach zasysania gazu, dlatego też nie wymagają szczególnych środków.

 Emulacja załadowania

Najnowsze systemy elektroniczne wtrysku wyposażone w obiegi diagnostyczne, zdolne są do rozpoznawania braku działania wtryskiwaczy, poprzez zaświecenie się wskaźnika CHECK, zapamiętywania odchyleń i złego funkcjonowania silnika. W tych przypadkach niezbędne jest „emulowanie” obecności wtryskiwaczy w stosunku do centralki, poprzez załadowanie fikcyjne złożone z jednego lub więcej emulatorów. Jeżeli chodzi o emulatory i regularne wchłanianie, muszą być one tarowane na minimalnych wartościach prądu.

Czy fotografia może istnieć bez światła? Jeśli przyjąć, że w wirtualnej rzeczywistości istnieje wirtualne światło, to musimy się zgodzić z faktem, że powstanie tam wirtualna fotografia, czyli obrazy będący rejestracją tejże wirtualnej przestrzeni.

Spowodowane przez rozwój technologii zmiany w psychice ludzkiej i wszystkim co znamy, przewidywano już dawno. Początek ery komputerów wyraźnie zarysował koniec „ery przemysłowej”. Tofflerowska „trzecia fala” nie tylko nadchodzi, a już jest w pełnym rozkwicie. Wiele przepowiedni Tofflera się sprawdziło, jednak on sam miał świadomość, że przewidywanie przyszłości metodą ekstrapolacji jest częściowo bez sensu[1], gdyż myśląc w ten sposób bawimy się we wróżkę zakładając, że tak naprawdę to nic się nie zmieni. Po prostu pewnych rzeczy nie jesteśmy w stanie przewidzieć. Sam Toffler opisując „erę trzeciej fali” rozpisywał się o urządzeniach telekomunikacyjnych, videotelefonach, satelitach, kopiarkach i „biurach bez papieru”, jednak nie wspomniał ani słowa o internecie… [Toffler]. Wiele wynalazków wdrożonych w życie okazało się totalną klapą jak na przykład nietrafione wynalazki typu WAP, MMS, itp.[2] a inne przyjęły się doskonale, choć często w zupełnie innej formie lub środowisku niż zaplanowali to sobie projektanci – np. SMS[3]. Wszystkie wnioski zawarte w tej pracy mogą być więc w znacznej mierze tylko fantazjami – bardzo często takie fantazje, nazywane przewidywaniami są nietrafione[4]. Być może zaczynamy się zbliżać do „czwartej fali”, której jeszcze nie potrafimy nawet zdefiniować. Nowej epoki, która zmieni (tak jak poprzednie) cały świat i społeczeństwo. Czy jednak tak jak w Solaris, nie stykamy się czasem z czymś ogromnym czego nie jesteśmy w stanie ogarnąć zmysłami, nie mówiąc już o tym żeby zrozumieć [Lem 1982], choć bardzo tego pragniemy…

Obecnie możemy przewidywać dwa scenariusze społeczeństwa przyszłości: społeczeństwo wirtualne (cała aktywność ludzka odbywać się będzie w rzeczywistości wirtualnej) lub społeczeństwo androidów (jak to barwnie opisuje Steiner – „transplantacja organów, klonowanie, zapład- nianie in vitro, (…) wszczepianie do kory mózgowej elektrod i końcówek z włókien optycznych, (…) witalne organy zostaną zastąpione a mózgi będą pobudzane elektrochemicznie” [Steiner]. Czy rzeczywistość wirtualna będzie tą „czwartą falą”? Czy tylko zjawiskiem należącym jeszcze do „fazy schyłkowej, naszej ery”, prowadzącym do świata współdzielonego z androidami [por. Dick]?

Tego oczywiście nie wiemy, choć najbardziej prawdopodobny wydaje się schemat hybrydowy[5] z lekką przewagą wirtualności nad implantami. Szczególnie, że częściowo jesteśmy już cyborgami – w sensie psychicznym, a nie cielesnym.

„Era cyborgów jest tu i teraz: gdziekolwiek jest samochód, wideo, telefon, komputer. To czy jesteś cyborgiem nie zależy wcale od ilości silikonu pod skórą, czy liczby protez składających się na twoje ciało. Świat stał się maszynowo-ludzką siecią: złożoną hybrydą mięsa, metalu i krzemu, w której zniknął problem tego co jest naturalne, a co sztuczne. Cyborgi nas nie otaczają, ale wchłaniają: biurowe sieci komputerowe, automatyczne linie produkcyjne, mass-media: to generowane przez cyborgi cyfrowe konstrukcje dla których surowcem jest ludzkie mięso, informacja, plastik, krzem i żelazo.” [Kudlatz]

Co więc się stanie, kiedy cała aktywność ludzka przeniesie się do „świata wirtualnego” (Virtual Reality) – piszę tutaj o VR w rozumieniu pełnym, tzn. nie w takim kształcie jaki mamy dzisiaj, czyli potocznie nazywane tak gry „3D”[6], MUD’y[7], internet, hełmy VR, itp. Chodzi mi o VR w „pełnym zanurzeniu” (full lub total immersion), kiedy człowiek jest zanurzony jest w wirtualnej rzeczywistości nie za pomocą zmysłów – oczy, uszy, dotyk, a za pomocą bezpośredniego połączenia komórek nerwowych (rdzeń, mózg, itp) do hardware’u VR.

Czy oczy ludzkie będą zupełnie niepotrzebne i co w takiej sytuacji zrobi wirtualny flaneur? Co więc stanie się z fotografią? Czy będzie tylko obiektem w wirtualnym muzeum[8], czy też będziemy mieli do czynienia fotografią wirtualną[9]? Aby podjąć próbę stworzenia jednej z możliwych odpowiedzi na pytanie „co się stanie z fotografią”, najpierw przyjrzyjmy się co prowadzi do jej wirtualizacji.

[1] por. Fotografia cyfrowa. Ontologia bytu immaterialnego. [w:] [Zawojski 2002]

[2] zob. Sterling, B. The Dead Media Project [on-line] http://www.deadmedia.org/

(6.09.2006)

[3] SMS – (ang. Short Messages Service) – system przesyłania krótkich wiadomości tekstowych w sieciach telefonii przenośnej (komórkowej)

[4] „futurolodzy informowali pod koniec zeszłego wieku (chodzi o wiek XIX – przyp. WK) o tym, że jeśli nie zostaną podjęte żadne kroki w celu ograniczenia emisji, to w przeciągu kilkudziesięciu lat ulice Londynu pokryją się dwumetrową warstwą łajna końskiego w obfitości produkowanego przez dynamicznie rozwijający się transport kołowy”

[za: http://www.zb.eco.pl/zb/72/polemiki.htm (22.08.2006)], jak zauważa brytyjski wydawca Norman Macrae, „rozwój tendencji z lat osiemdziesiątych XIX wieku musiałby się skończyć pogrzebaniem dzisiejszych miast pod warstwą końskiego nawozu” [Meadows, D., et al. (1972) The Limits to Growth, New York: Universe Books); Passell, P., Roberts, M. Ross, L. (1972) Review of The Limits to Growth, New York Times Book Review; za: http://www.mises.pl/site/subpage.php?id=66&content id=158&view=full]

[5] Warto w tym momencie przywołać przykład już skonstruowanego i zaprezentowanego na Massachusetts Institute of Technology (MIT) urządzenia – „ubieralnej technologii” pomagającej ludziom chorym na autyzm. Jest to jak powiedział Joseph Paradiso – dyrektor MIT Media Lab’s Responsive Environments Group, jeden z przykładów na budowanie „fizjologicznych interfejsów pomiędzy ludźmi a systemami obliczeniowymi”.

[6] 3D – (ang. 3 dimensions – trójwymiarowe) określenie to jest oczywiście umowne,

gdyż przedstawiane tak przedmioty nie są bryłami trójwymiarowymi, to nawet nie iluzja, a tylko umowna sugestia za pomocą standardowych metod takich jak np. perspektywa. Obraz pozostaje płaszczyzną dwuwymiarową i jako taki dociera do zmysłu wzroku.

[7] MUD (ang. Multi User Dungeons – Lochy Wieloosobowe) – komputerowe (w odróżnieniu od gier RPG) gry „przygodowe” (przeciwieństwo do zręcznościowych) w które może grać jednocześnie wielu użytkowników. W podstawowej wersji gry typu MUD są tekstowe – bez grafiki. Czasami skrót MUD rozwija się jako Multi User Dialogues (Dialogi Wieloosobowe), Multi User Domain (Wieloosobowa Posiadłość) lub żartobliwie Multi – Ungraduate Destroyer (Masowy Niszczyciel Studentów) [za: Sitarski]

[8] oczywiście w takim muzeum mogły by znajdować się nie same obiekty fotograficzne takie jak odbitki czy slajdy, a tylko ich konstrukty – cyfrowe modele lub cyfrowe kopie

[9] „fotografia wirtualna” – obraz fotorealistyczny uzyskany bez użycia realnych urządzeń fotograficznych (bez użycia światła), oglądany tylko w przestrzeni wirtualnej (tzn. bez użycia oczu). Zdjęcie wirtualne było by rejestracją czegoś, co „widzi” (lub może powstać w wyniku innych zjawisk) człowiek „zanurzony” (immersion) w rzeczywistości wirtualnej

– podobnie jak możemy zrobić tzw. „zrzut ekranowy”, zatrzymując to co się dzieje na ekranie komputera. Do fotografii wirtualnej nie można zaliczyć oglądanych w VR cyfrowych kopii fotografii powstałych wcześniej w „realu”.

Instalacja LPG

Posted: 16 lutego 2019 in prace magisterskie
Tagi:

Instalacja urządzeń zasilających LPG w pojazdach samochodowych jest określona artykułami Przepisów Wykonawczych Kodeksu Drogowego i Ruchu wydanego przez Ministerstwo Transportu. Artykuły te podają w kolejności części instalacji, które muszą mieć homologację oraz opisują sposób instalowania różnych komponentów. Przeprowadzający próbę z ramienia Regionalnych Inspektoratów Motoryzacji, kontrolują czy różne komponenty zostały zainstalowane zgodnie z normami i weryfikują zachowanie się różnych części podczas prób, poddając je ciśnieniu hydraulicznemu 45 bar.

Przeprowadzenie próby, na żądanie użytkownika, może być przeprowadzone przez firmę instalującą. Instalacja LPG nie wymaga modyfikacji samochodu, a tylko podłączenia niektórych komponentów. Śledząc schemat na rys. LPG płynny poprzez rury wysokociśnieniowe przechodzi od zbiornika do silnika.

Tutaj po przejściu przez elektrozawór, LPG dochodzi do reduktora-parownika i przekształca się w gaz. Wszystko to odbywa się dzięki wodzie przychodzącej z instalacji chłodzącej samochodu. W tym miejscu LPG gazowy o niskim ciśnieniu osiąga mieszalnik. Instalację uzupełniają różne urządzenia i komponenty zarówno mechaniczne jak i elektroniczne, które mogą spełniać funkcje optymalności użytkowania i bezpieczeństwa.

Zbiorniki

Zbiornik LPG jest elementem instalacji o dużych rozmiarach i musi być zainstalowany w tylnej części samochodu wykorzystując w tym celu bagażnik lub też miejsce, w którym normalnie mocowane jest koło zapasowe. Tradycyjną formą zbiornika jest walec (cylinder) mający wypukłe spody. Rynek oferuje zbiorniki tego typu o różnorodnych wymiarach, co pozwala dobrać właściwy zbiornik do każdego pojazdu biorąc pod uwagę także specjalne wymagania użytkownika i wyjście kompromisowe między uzyskiwanym zasięgiem, a wypełnieniem powierzchni bagażnika.

Najbardziej nowoczesnym osiągnięciem jest zbiornik w kształcie koła zapasowego. Także tego typu zbiorniki są produkowane w różnych wymiarach i pojemnościach, aczkolwiek ogólnie nieco mniejszych od pojemności zbiorników cylindrycznych. Oferują za to więcej niż wystarczającą swobodę wykorzystania bagażnika. Instalacja zbiornika toroidalnego (kołowego) jest znacznie bardziej korzystna, jeżeli chce się mieć do dyspozycji całą powierzchnię bagażnika.

Dotyczy to szczególnie samochodów kombi, gdzie płaskość powierzchni bagażnika jest znacznie częściej wykorzystywana. Zbiornik w każdym przypadku musi być zespolony z karoserią przy pomocy specjalnego systemu umocnień.

Wszystkie produkowane zbiorniki przed sprzedażą muszą być zgodnie z przepisami sprawdzone próbą ciśnieniową 45 bar. W każdej partii 100 zbiorników jeden jest poddawany próbie rozerwania, która musi przejść przy ciśnieniu ponad 10 bar. Jeżeli nie zostanie rozerwany cała partia zbiorników zostaje odrzucona.

Próby te wykonywane są przez Urząd Motoryzacji Publicznej a ich surowość jest powszechnie znana, mimo iż ciśnienie normalnie wytwarzane przez LPG jest rzędu kilku barów.

Innymi słowy, stosowane zbiorniki są jednym z elementów znacznie przewyższającymi wymiarami normy bezpieczeństwa dla całego pojazdu. Blacha zbiornika grubości 3-4 mm, jest wykonana ze stali o wysokiej jakości, obrabianej termicznie, co gwarantuje wysoki stopień wydłużania złamaniowego i pozwala na uniknięcie pęknięć także w wypadku, gdy zbiornik ulegnie deformacji na skutek gwałtownego uderzenia. Praktyczne doświadczenie ukazuje, że także w następstwie bardzo silnego uderzenia, zbiornik LPG pozostaje cały, jako jedna z niewielu części pojazdu. W wypadku zderzenia zbiornik zachowuje niezmieniony kształt, robiąc sobie miejsce między blachami uszkodzonej karoserii, które są cieńsze i łatwiej ulegają deformacji. Należy więc jak najszybciej pozbyć się uprzedzeń, dotychczas bardzo rozpowszechnionych, dotyczących niebezpieczeństwa stosowania zbiornika. Bardziej prawdziwe jest stwierdzenie, że zbiornik w samochodzie tworzy „dodatkowy zderzak” niż że jest on „bombą na pokładzie”. Szczególną uwagę należy zwrócić na fakt, że zbiornik nie może być nigdy napełniony płynnym LPG w 100%. Dopóki nawet niewielka część jego pojemności zawiera LPG w stanie gazowym, ciśnienie, które panuje we wnętrzu zbiornika jest równe napięciu pary od otrzymanej mieszanki LPG do tej temperatury a więc dotyczy wartości ciśnienia, w każdym przypadku niskiego w stosunku do wytrzymałości zbiornika. Jeżeli natomiast zbiornik jest całkowicie wypełniony płynnym gazem, ciśnienie może osiągnąć wartości bardzo wysokie.

LPG płynny ma w rzeczywistości współczynnik rozszerzalności sześciennej dość wysoki, rzędu 0,002-0,0025°C – 1 tzn. 2000 większy od stali i tak jak prawie wszystkie płyny jest mało ściśliwy. Jest więc oczywiste, że wzrostowi temperatury odpowiada rozszerzalność LPG płynnego, który jeżeli znajduje się

wewnątrz zamkniętego pojemnika, może osiągnąć jakiekolwiek ciśnienie. W takim przypadku ciśnienie mniej zależy od płynnego LPG, a bardziej od wytrzymałości zbiornika. Aby uniknąć niebezpieczeństwa związanego z wyżej wymienioną sytuacją przepisy przewidują, że zbiornik nie może być napełniony płynnym LPG w ilości ponad 80% pojemności. W tym celu został zainstalowany wielozawór (następny rozdział), który zapobiega temu poprzez pływak i odpowiedni system blokujący. Napełnienie ograniczane do 80% zapewnia wystarczający margines bezpieczeństwa. W rzeczywistości niezbędne jest przegrzanie LPG o ponad 80°C ponad temperaturę otoczenia, tak aby jego rozszerzalność spowodowała całkowite wypełnienie zbiornika. Amplitudę cieplną tak wysoką można otrzymać tylko przy pożarze a nie w normalnych warunkach użytkowania. Na końcu należy dodać, że osiągnięcie całkowitego wyletnienia zbiornika oznacza wyłącznie zapoczątkowanie warunków niebezpieczeństwa, natomiast nie oznacza, że zbiornik zamierza wybuchnąć, ponieważ ma on w dalszym ciągu całkowitą zdolność stali do rozciągania się, zanim osiągnie stopień rozłamania.

Wielozawory

Umieszczony jest w zbiorniku LPG i składa się z kompletu urządzeń mechanicznych na tyle kompleksowych aby mógł on spełniać liczne funkcje, a w szczególności:

1) Napełnianie – poprzez wielozawór przechodzi LPG w czasie fazy tankowania. Dobry wielozawór nie powinien stawiać zbyt dużego oporu przepływającemu LPG, a także powinien skracać czas napełniania zbiornika.

2) Ograniczenie tankowania – zgodnie z przepisami i warunkami bezpieczeństwa , zbiornik nie powinien w żadnym wypadku być napełniony w nadmiarze. Ilość max. LPG płynnego wynosi 80% pojemności całkowitej zbiornika. Pozostałe 20% będzie zajęte przez opary LPG i pozwoli płynowi rozszerzyć się w razie ewentualnych wzrostów temperatury, nie osiągając nigdy całej wewnętrznej pojemności zbiornika. Do czasu kiedy w zbiorniku jest jeszcze miejsce dla nawet niewielkiej ilości pary, nie ma możliwości powstania niebezpiecznego ciśnienia. Aby otrzymać właściwy limit

napełniania, wielozawór wyposażony jest w urządzenie, które połączone z pływakiem, wyskakuje przy osiągnięciu max. dopuszczalnego poziomu, blokuje dalszy dopływ LPG. System ten jest bardzo ważny i godny zaufania, choć nie można wykluczyć, że w przyszłości zostanie zastąpiony systemem elektronicznym, jeszcze bardziej precyzyjnym i pewnym.

3) Wskaźnik poziomu – dzięki parze magnesów, z których jeden jest umieszczony wewnątrz i sztywno z urządzeniem związanym z pływakiem, a druki umieszczony na zewnątrz i połączony z małą wskazówką. Możliwe jest uzyskanie wskazania poziomu LPG będącego w zbiorniku. Kontrolka zazwyczaj podzielona jest na cztery części + jedna dla rezerwy. Czasami na żądanie klienta lub w wypadku gdy całe urządzenie pomiarowo-kontrolne okaże się niewygodne ze względu na usytuowanie zbiornika, wielozawór może być wyposażony w odpowiednie przetworniki elektroniczne, które połączone z odpowiednimi obwodami, pokazują prowadzącemu pojazd poziom paliwa przy pomocy diody świecącej lub też innego, analogicznego systemu.

4) Pobieranie LPG – wielozawór pozwala na pobieranie LPG płynnego poprzez rurę nurkującą zwróconą w kierunku dna zbiornika. Wielozawór musi mieć w każdym przypadku sekcje (przegrody), które umożliwiają przelew (przekazanie) bez zbytnich strat ładowania max. wielkości, których wymagają silniki.

5) Przechwytywanie (przejmowanie) – na wielozaworze znajdują się dwa kraniki przeznaczone do przejmowania odpowiednio rury napełniania i rury pobrania. Na ogól kraniki te pozostają otwarte, ale mogą zostać zamknięte w przypadku konieczności przeprowadzenia konserwacji, uderzenia itd. Kiedy wielozawór okazuje się trudno dostępny, niezbędne jest przygotowanie systemu sterującego na odległość (jest to w zasadzie ściągacz), który pozwala zamknąć z łatwością rurę pobrania.

6) Nadmiar przepływu – wzdłuż rurociągu przeznaczonego do pobrania gazu, znajduje się zawsze wewnątrz wielozaworu urządzenie zwane „zaworem nadmiernego przepływu”. Jest to system zdolny do zamknięcia skokowego przepływu kiedy nośność okaże się wyższa od tej określonej wartości wytarowanej. W praktyce zawór nadmiernego przepływu ma za zadanie blokowanie ucieczki gazu kiedy na skutek uderzenia nastąpiło przerwanie (złamanie) rury doprowadzającej do silnika. Działanie tego zaworu jest ograniczone tylko do wyjątkowych przypadków. Należy zaznaczyć, że jego zamknięcie nie może być hermetyczne, ponieważ spowodowałoby to możliwość ponownego uzbrojenia.

Są różne typy wielozaworów przeznaczone do zbiorników o różnych wymiarach, zarówno cylindrycznych jak i toroidalnych (kołowych). Biorąc pod uwagę wymagania aby nie zajmowały one zbyt dużo miejsca, są obecnie produkowane wielozawory do zainstalowania na zbiornik o różnym nachyleniu od osi poprzecznej.

Za granicą. Wielozawór jest rozwiązaniem bardzo istotnym, ponieważ wymaga tylko wykonania jednego otworu w zbiorniku i grupuje wszystkie czynności w jednym urządzeniu. W innych krajach do dzisiaj stosuje się instalowanie oddzielnych zaworów, każdy przeznaczony do spełniania określonych funkcji. Niektóre przepisy zagraniczne przewidują oprócz urządzeń, w które wyposażony jest wielozawór, dodatkowy zawór bezpieczeństwa zdolny do wyrzutu na zewnątrz określonej ilości LPG w wypadku jeżeli ciśnienie wewnątrz zbiornika przekroczy wskaźniki wytarowania.

Pojemnik częściowo hermetycznykomora szczelna

Pojemnik ten jest bardzo ważnym elementem wewnątrz systemu zasilania LPG silników samochodów, biorąc pod uwagę system bezpieczeństwa. W rzeczywistości korzystne jest, gdy LPG w razie ulatniania się gazu lub ze względu na inne motywy, ma możliwość wypłynięcia na zewnątrz samochodu, unikając w ten sposób znalezienie się w środowisku mało korzystnym, a więc potencjalnie niebezpiecznym. Wszystko to zależy w dużej mierze od konstrukcji i odpowiedniego montażu w samochodzie pojemnika częściowo hermetycznego.

Może on być skonstruowany z różnych materiałów (aluminium). W środku podstawy jest wykonany otwór umożliwiający oparcie pojemnika na pierścieniu skurczowym mocowania zbiornika i dla umożliwienia wielozaworowi jego własne oparcie na pierścieniu skurczowym zbiornika. Uszczelki zapewniają perfekcyjną izolację z otoczeniem zewnętrznym. Komora szczelna posiada dwie rury wentylacyjne, które jak można zobaczyć na rysunku, kontaktują wnętrze pojemnika ze sferą zewnętrzną. Na rurach tych umocowane są przy pomocy opasek, dwa przenośniki (transportera) powietrza, które mają za zadanie umożliwić cyrkulację powietrza. We wnętrzu zbiornika obu rur biegną odpowiednie rurociągi zasilania LPG do silnika i rurociąg idący od ujęcia ładowania. Pokrywka jest zrobiona przeważnie z materiału plastycznego, przezroczystego, który spełnia funkcję szkła powiększającego. Jego prawidłowa odległość od wielozaworu pozwala na powiększenie obrazu wskaźnika poziomu, pomagając łatwo i natychmiast odczytać poziom płynu w zbiorniku. Dziabanie pojemnika częściowo hermetycznego bazuje na perfekcyjnej szczelności, która umożliwia zachowanie czystego środowiska oraz powietrza w jego wnętrzu.

Rura wysokociśnieniowa

Rura ta normalnie wykonana z miedzi wyżarzonej jest przystosowana do ciśnienia roboczego 45 bar i może być zginana przy użyciu odpowiednich przyrządów. Rura łączy zbiornik z elektrozaworem i następnie z reduktorem- parownikiem.

Rury są połączone z urządzeniami poprzez odpowiednie złączki.

Rura powinna być zamocowana na spodzie samochodu, w odległości od rury wydechowej i punktów wzmocnienia samochodu, w regularnych odstępach, za pomocą odpowiednich opasek wyposażonych w śruby samo wkrętne. Połączenia w miejscach podatnych na wibracje, muszą być wykonane z wężownic lub ze spiral elastycznych.