O wyższości sieciowych rozwiązań wizyjnych

Z Aleksandrem M. Woronowem,
konsultantem systemów informatycznych Softex Data, rozmawia Andrzej Popielski

Czy nadszedł już czas na sieciowe rozwiązania wideo?

– Technicznie i technologicznie nie jest to dziedzina będąca „noworodkiem”, ale oczywiście jest bardzo młoda. Jest dynamicznie rosnącą sferą także działu bezpieczeństwa. W najbliższych latach „zabije” rozwiązania analogowe lub zepchnie je do rozwiązań niszowych.
Standardy telewizji używane w rozwiązaniach analogowych, opracowywano w czasie II wojny światowej i tuż po niej i wprowadzono w latach 50. i 60. Rozwój cyfrowych i sieciowych rozwiązań wideo wymusiła m.in. świadomość ograniczeń telewizji analogowej – np. niewielkiej rozdzielczości obrazu. Użycie rozwiązań sieciowych, w całości opartych na rozwiązaniach cyfrowych, nie tylko dotyczących przetwarzania obrazu, ale również jego przesyłu, obróbki oraz dalszej jego wizualizacji, powoduje, że wychodzimy daleko poza zakresy klasycznych rozdzielczości. Przecież nawet aparaty fotograficzne w popularnych telefonach komórkowych mają już kilkumegapikselowe rozdzielczości. Tak naprawdę nie są to „jakieś” telefony, tylko dedykowane komputery do dostarczania szeroko pojętych usług telekomunikacyjnych (przesyłu samego dźwięku, czyli rozmowy, MMS – grafiki; w tej chwili już przesyłanie strumieniowe, czyli odtwarzanie plików wizyjnych, odbiór telewizji strumieniowej).
Wejście w świat informatyczny usuwa nie tylko ograniczenie rozdzielczości obrazu generowanego przez kamery i dostarczanego do użytkownika. Opracowane nowe technologie przesyłu danych wideo, ciągle trwające, ale wstępnie zakończone prace nad MPEG-4 cz. 10, przenoszą nas w zupełnie nową jakość pozwalającą w sposób dowolny wyciągać z jednego strumienia wideo różne formaty. W tej chwili nie ma jeszcze urządzeń pracujących w tych standardach działających w warunkach ogólnie dostępnych. Ale w skali laboratoryjnej i studialnej już je opracowano wraz z odpowiednimi algorytmami oraz procedurami. Należy spodziewać się, że gwałtownie wzrastające zapotrzebowanie na przesyłanie danych multimedialnych (nie tylko dźwięku, ale związanego z nim strumienia wideo) doprowadzą w najbliższym czasie do rynkowego pojawienia się urządzeń zupełnie nowej jakości.
Krótko mówiąc: standard MPEG-4 cz. 10 nie będzie po pierwsze zgodny w dół z MPEG-4 cz. 2. Po drodze wchłonął też technologie znane z pseudostandardów (używanych w kompresjach Wavelet) i inne najnowsze osiągnięcia związane z kompresją i obróbką zarówno strumienia audio, jak i wideo. Generując jeden strumień wideo bardzo dobrej jakości, będziemy mogli w zależności od potrzeb użytkownika końcowego oraz możliwości transmisyjnych wyciągać z niego dane o pożądanych parametrach, czyli np. o różnej rozdzielczości, o różnej prędkości odświeżania klatek, o różnym stopniu kompresji. Czyli nie tak, jak w tej chwili, gdy musimy generować oddzielne strumienie na każdą rozdzielczość, prędkość odświeżania czy na każdy stopień kompresji. Będzie to jeden strumień w układzie tzw. multicastingu – jeden nadawca, wielu odbiorców i każdy z nich będzie wyciągał z tego strumienia tylko to, co mu jest potrzebne.

 Zapytam o znaczenie praktyczne dla techniki zabezpieczeń?

– Mając jedno i to samo urządzenie, generując jeden strumień danych od urządzenia do centrum operacyjnego, będzie można równocześnie nagrywać obrazy z bardzo wysoką lub niższą rozdzielczością w różnych prędkościach – np. 4 kl./s z maksymalną rozdzielczością i w tym samym czasie uzupełniające nagrywanie z prędkością 25 kl./s (lub więcej) z dużo mniejszą rozdzielczością, po to, by mieć np. podgląd na całość sceny z zachowaniem jej płynności. Natomiast szczegóły będą uzyskiwane z klatek zapisywanych rzadziej, o dużej rozdzielczości.
Tak samo może być na konsolach operatorskich. W zależności od wymaganej szczegółowości będzie można mieć ten obraz z różną rozdzielczością, a tym samym jak gdyby z różnym wykorzystaniem zajętości pasma. Czyli będziemy w stanie optymalizować pasmo w zależności od potrzeb, np. zwalniać je.

Powróćmy na poziom prostszych pojęć. Czym są sieciowe systemy wizyjne?

– Są to systemy informatyczne złożone z kilku elementów (urządzeń generujących obraz, sieci transmisyjnych, odbiorców końcowych, archiwizacji, aplikacji). W pierwszej kolejności trzeba wymienić kamery sieciowe oraz wideoserwery z podłączonymi do nich kamerami tradycyjnymi, tzw. analogowymi, czyli źródła sygnałów wizyjnych.
Kolejnym składnikiem sieciowych systemów są sieci transmisyjne przesyłające do odbiorcy końcowego strumień informatyczny, który powstaje w kamerach sieciowych lub wideoserwerach. Są to sieci komputerowe bazujące na protokole TCP/IP. Sieci dzielą się na lokalne i rozległe. Lokalne (LAN) mogą być kablowe: miedziane po tzw. skrętce albo światłowodowe. Istnieje także rozmaitość sieci bezprzewodowych – począwszy od najprostszych i najbardziej popularnych Wi-Fi w ogólnie dostępnych, nielicencjonowanych pasmach, niezalecanych do zastosowań profesjonalnych, poprzez wchodzący powoli w życie Wimax, aż po rozwiązania komercyjne w pasmach licencjonowanych.
Patrząc z punktu widzenia architektury, mogą być też sieci „punkt – wielopunkt” (jeden punkt centralny, który jest takim jak gdyby punktem dostępowym, i wiele nadajników, np. poszczególnych kamer – przykładowo monitoring miejski z jedną czy kilkoma stacjami bazowymi i pewną liczbą kamer). Innym rodzajem jest sieć „punkt–punkt”, czyli np. w postaci radiolinii – w różnych pasmach: gigahercowych, mikrofalowych, a w specyficznych zastosowaniach mogą być z laserami podczerwonymi albo innymi. Rozwiązań bezprzewodowych jest wiele. Co istotne, to wspólny dla wszystkich sieci protokół IP.
Drugim rodzajem sieci są sieci rozległe (WAN). Jest to np. Internet. Są to także sieci wydzielone konkretnych operatorów, rozległe, rozproszone i poprzez odpowiednie połączenia z pozostałymi sieciami pozwalające praktycznie na dostęp do zasobów w dowolnym miejscu na kuli ziemskiej, a w przyszłości np. na Księżycu lub Marsie, oczywiście z odpowiednim opóźnieniem czasowym. W Polsce są dedykowane sieci szkieletowe różnych operatorów, np. Polpak, pakietowa sieć TP S.A. Swoje sieci mają m.in. telekomunikacja kolejowa, Polskie Sieci Elektroenergetyczne czy Netia.
Elementem sieciowych systemów wideo są też odbiorcy końcowi, do których ten strumień wideo dociera. Po pierwsze są to konsole operatorskie do podglądu obrazu na żywo, i/lub archiwizacji i późniejszego przeglądania. Konsole operatorskie mogą być lokalne, czyli umieszczone gdzieś w obrębie sieci lokalnej, oraz zdalne, umieszczone „gdzieś w świecie”. W związku z tym, że protokół IP jest dostępny wszędzie, gdzie tylko mamy łącze, taka konsola może być umieszczana w dowolnym miejscu w sieci. To są plusy rozwiązań informatycznych, a pamiętajmy, że sieciowy system wideo jest rozwiązaniem informatycznym.
Pozostaje wreszcie ostatni element sieciowego systemu wideo, czyli rejestracja. Nagrywanie obrazu może również odbywać się lokalnie lub zdalnie. Wszystko zależy od tego, co chcemy rejestrować, z jaką jakością i jakimi pasmami transmisyjnymi dysponujemy. Jeżeli mamy np. bardzo duże strumienie, należy dążyć do tego, żeby były one archiwizowane lokalnie.
Nad systemem musi być coś, co tym wszystkim steruje – czyli aplikacja zarządzająca, ale to już odrębny i obszerny temat. Ponieważ rozwiązania sieciowe pozwalają nam na pracę lokalną i zdalną, możemy mieć trzy różne możliwości pracy: lokalnej, zdalnej i mieszanej – w zależności od potrzeb i dostępnych możliwości.

Nie wiemy w dalszym ciągu, czym te wizyjne cyfrowe systemy sieciowe różnią się od systemów analogowych?

– Po pierwsze urządzeniami, w których zerwano z klasycznymi standardami CCTV. Standardy telewizyjne są np. związane z częstotliwością sieci, jaka jest w danym kraju, czyli NTSC (60 Hz, 30 kl./s) lub PAL (50 Hz i 25 kl./s). W rozwiązaniach cyfrowych, informatycznych nie musimy być ograniczeni tymi wymogami, bo system nie ma już problemów z obsługą kamer, które mogłyby dostarczać 45, 60, 300 czy więcej klatek na sekundę. To samo dotyczy rozdzielczości obrazu. Standard CCTV kończy się na ok. 0,4 megapiksela, a na rynku mamy już kamery 2-, 3-, 5- i więcej megapikselowe. Wszystko zależy od mocy przerobowych samych urządzeń dostarczających sygnał wideo (zainstalowanych tam układów i oprogramowania), od szybkości i czasu bezwładności użytych matryc oraz oczywiście potem od zdolności transmisyjnych, bo ta ilość danych wizyjnych do obejrzenia, zapisania czy dalszej obróbki musi zostać przepchnięta w sieci na miejsce odbioru.
W systemach sieciowych, poza możliwością zmian rozdzielczości obrazu, jest możliwość zmiany formatu 4:3 i pracy w formatach 16:9 lub innych, zależnych od tego, co zostało zaimplementowane w kamerach.
Atutem rozwiązań sieciowych, w porównaniu z analogowymi, jest stałość jakości danych uzyskiwanych z kamery. W rozwiązaniach analogowych po zamianie sygnału cyfrowego, który jest de facto po obróbce zamieniany w kamerze analogowej na wyjściowy sygnał analogowy, sygnał ten na skutek wielokrotnych przetworzeń podlega potem na każdym etapie ustawicznej degradacji – podczas przesyłania do kolejnego odbiornika lub punktu przekazu, na skutek „łapania” szumów obcych poprzez różnego rodzaju sprzężenia, źle wykonane połączenia czy też kolejnej konwersji, np. przez nadajnik linii, odbiornik linii itp.
W przypadku sygnału cyfrowego – a mamy tu tylko dwa stany (0-1) – nie ma żadnej straty jakości, niezależnie od liczby pośrednich punktów. Czyli sygnał będzie miał tę samą jakość w kamerze i np. – teoretycznie na razie – na Księżycu. Jedynym warunkiem jest, aby była zachowana droga cyfrowa. A rozwiązania sieciowe gwarantują jedną drogę bez żadnych dodatkowych przekształceń zawartości sygnału. To, że zmieniają się sposoby transmisji, nie ma znaczenia, ponieważ sama treść jest cały czas w tej samej postaci. Na drodze analogowej nigdy nie jesteśmy w stanie utrzymać tej samej jakości. Każde działanie zawsze jest okupione jakąś stratą.
I znowu o korzyściach stosowania wizyjnych rozwiązań sieciowych choćby np. technologii PoE (Power over Ethernet), czyli wykorzystania tego samego kabla do transmisji sygnałów razem z zasilaniem. Zamiast tworzyć niezależne dwie, a może nawet trzy sieci, gdy weźmiemy pod uwagę koncentryk do odbioru sygnału, przewód elektryczny i jeszcze jeden do transmisji sygnałów sterujących sygnałami PTZ.
Używamy kabla niskonapięciowego, w związku z tym nie musimy robić z elektrykami stosownych uzgodnień wymaganych przy instalacjach wysokonapięciowych. Stosujemy te same zasady, jak przy budowie typowej sieci komputerowej. Na koniec – ponieważ jest to rozwiązanie informatyczne, może ono bez problemu korzystać z typowych, istniejących już sieci strukturalnych w danym obiekcie. Jedyne, co trzeba zrobić, to obliczyć wydajność, przepustowość tej sieci, by wiedzieć, czy będzie spełniała nasze wymagania. Jeśli nie, to trzeba zaprojektować lub przeprojektować sieć istniejącą (np. zastosowanie tzw. segmentacji sieci albo poprzez inne rozwiązania). 

Pomówmy o kamerach. Czym kamery sieciowe różnią się od analogowych?

– Warto uświadomić sobie, że obecnie tzw. kamery analogowe nie są urządzeniami analogowymi w pełni. Nazywamy je analogowymi dlatego, że wychodzący z nich sygnał jest sygnałem analogowym, zgodnym ze standardem CCTV – standardowym sygnałem telewizyjnym opracowanym więcej niż pół wieku temu. Tak naprawdę nowoczesne kamery tzw. analogowe mają dwa elementy analogowe: obiektyw i przetwornik cyfrowo-analogowy. Reszta urządzenia jest już de facto urządzeniem cyfrowym. Od czasu powstania matrycy CCD przetworzenie i cała obróbka obrazu następują na drodze cyfrowej. Wcześniej taka kamera miała „zaszyty w sobie” dedykowany komputer z ograniczoną funkcjonalnością (w oprogramowaniu wewnętrznym, w „kościach”, które ten obraz obrabiały). Pewnych zmian parametrów w ograniczonym zakresie można było dokonywać poprzez zewnętrzne zworki, przełączniki lub przez menu ekranowe. W nowszych rozwiązaniach w celu zmiany parametrów dołączano możliwości sterowania poprzez protokół zewnętrzny RS-232, 422 czy jakiś inny protokół danego producenta. Ale tak naprawdę nie było to zarządzanie całą kamerą.
Nowoczesna kamera sieciowa ma te same elementy, ponadto posiada niezależny, dedykowany komputer, który przetwarza otrzymany sygnał cyfrowy na strumień danych informatycznych zgodnych ze standardami zazwyczaj JPEG, MPEG-4 cz. 2 lub MPEG-2 (czyli z kompresją stratną). Oprócz tego, że przetwarza obraz na konkretny strumień danych informatycznych, to udostępnia możliwość zarządzania tą kamerą poprzez wbudowany w kamerę tzw. serwer WWW. Bo jest to komputer z własnym oprogramowaniem. Pozwala on wejść w wewnętrzne oprogramowanie i zdalnie zmieniać parametry i ustawienia kamery – czyli np. rozdzielczość, jasność, kontrast, głębię kolorów... Można dokonywać programowego obrotu obrazu, po to by dostosować go do sposobu oglądania. 
  

Niektórzy twierdzą, że analogowe kamery mają jeszcze jakąś wyższość nad sieciowymi. Jeżeli, to jaką?

– Rynek kamer analogowych rozwija się już chyba ponad 50 lat. Przez długie lata wytworzył miliony sprawnych urządzeń akceptowanych przez użytkowników. Niektórych rozwiązań znanych z technik analogowych kamery sieciowe jeszcze nie wchłonęły. Pierwszą na świecie kamerę sieciową Axis Communication AB zbudował zaledwie w 1996 r. W związku z tym, jeśli potrzebujemy kamer o specyficznych zastosowaniach, to będą one lepiej realizowane przez tradycyjne. Są np. wysokoczułe kamery termowizyjne, których cena idzie nawet w miliony złotych. Na dzień dzisiejszy trudno od kamer sieciowych oczekiwać bardzo wysokich czułości. Są też kamery do zastosowań specjalnych, np. szybkoklatkowe. Nie ma jeszcze ogólnie dostępnych takich kamer sieciowych.
Po to jednak, żeby takie kamery można było stosować w rozwiązaniach sieciowych oraz by ochronić dotychczas poniesione nakłady inwestycyjne na sprawne technicznie i technologicznie zasoby analogowe, stosuje się wideoserwery. W ten sposób jesteśmy w stanie przechwycić sygnał z tradycyjnych systemów analogowych do systemów sieciowych. Oczywiście w takiej sytuacji nie zarządzamy kamerą, jak to dzieje się w przypadku kamer sieciowych w pełni, tylko obróbką obrazu dostarczonego przez kamerę. Potem jednak możemy ten obraz mieć w różnej rozdzielczości, w różnym stopniu kompresji i w różnym formacie (np. w formacie MJPEG czy MPEG z odpowiednimi parametrami).
To wszystko, co dzieje się na etapie przetwarzania tego obrazu w strumień informatyczny, jest dla nas dostępne. Czyli korzyści związane z wykorzystaniem czy podłączaniem sygnału audio, czy z podłączaniem sterowania od wideoserwera, jest nam dostępne. Natomiast do wideoserwera musimy dostarczyć sygnały na drodze tradycyjnej.

 W rozwiązaniach sieciowych – w stosunku do rozwiązań analogowych – niesłychanie zwiększył się zakres funkcjonalności. Zatrzymajmy się jeszcze przy korzyściach ze stosowania rozwiązań cyfrowo-sieciowych.

– Jak już wspomniałem jest ich wiele. Mówimy o rozwiązaniach informatycznych, gdzie nie jesteśmy ograniczeni kablem koncentrycznym, który był w stanie tylko dostarczyć obraz do zarejestrowania na magnetowidzie poklatkowym i jego wyświetlenia poprzez multiplekser. Mamy np. możliwość definiowania użytkowników. Możemy zdecydować, kto ma prawo dostać się do kamery, możemy dać mu uprawnienia do oglądania lub administracji.
Nie ma problemu we wbudowaniu w kamerę mikrofonu i dołączenia do obrazu strumienia dźwiękowego w odpowiednim standardzie czy serwera portów szeregowych, zależnie od tego, co zostało zaimplementowane.
Kamera sieciowa może np. mieć wbudowaną detekcję ruchu na bazie analizy obrazu. Możemy określić w obrazie obszary, które kamera ma obserwować, i oceniać zmieniające elementy a, w przypadku zmiany określonej wartości – wykonać zaprogramowaną czynność, np. nagrywanie obrazu w lepszej lub gorszej rozdzielczości.
Kamera sieciowa jest komputerem mającym własną pamięć. Nic nie stoi więc na przeszkodzie, żeby tej pamięci było trochę więcej. Po to, żebyśmy mogli od razu w kamerze zapamiętywać i tworzyć tzw. bufory przed- i poalarmowe (do oglądu obrazów, które „uciekają” w zapisie poklatkowym). Możemy także nakazać, w zależności od tego, co się wydarzy, aby dane przesyłać gdzieś do dalszego przetworzenia.
Istnieje też możliwość obsługi dodatkowych funkcji. Kamery mogą mieć wbudowane wejścia i wyjścia przekaźnikowe, do których możemy podłączyć czujkę PIR, przekaźnik sterujący bramą, oświetleniem... Jeśli mamy obsługę audio, to nic nie stoi na przeszkodzie, żeby była ona dwukierunkowa. Nie tylko poprzez wbudowany mikrofon, może to być również obsługa dołączanego mikrofonu zewnętrznego czy sygnału z pulpitu mikserskiego – jak też sterowanie głośnikiem. Pozwala to – wykorzystując jeden i ten sam kabel, to samo połączenie – na pełną komunikację. Czyli np. głosową reakcję ochrony na zdarzenie obserwowane przez kamerę.

 Jaka jest zasadność stosowania rozwiązań sieciowych, skoro te rozwiązania są droższe od analogowych?

– Dla polskiego rynku największym problemem jest cena. Kupuje się rozwiązanie analogowe nie dlatego, że jest lepsze, ale dlatego że jest dużo tańsze od rozwiązań w pełni cyfrowych. To jednak zmienia się na korzyść użytkownika.
 
Dziękuję za rozmowę 

 
POLECAMY!

Bezpłatnie

Polish (Poland)

Ta strona używa plików cookies. Korzystając ze strony wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki. Wiecej informacji o cookies i sposobach ich usuniecia mozna znalezc w naszej polityce prywatnosci.

Akceptuje cookies z tej strony.