Standardizzazione video: stato dell’arte e possibili effetti

Il radicale cambiamento nel mondo della videosorveglianza è ormai sotto gli occhi di tutti, anche se l’attuale crisi economica ha attenuato la velocità di propagazione di questa “tempesta perfetta”.

Andrea Fontana
Project Sales Engineer & BDM Vertical Market
Pelco

Le cause che hanno scatenato la “tempesta” sono numerose. Vanno dal miglioramento dei dispositivi di ripresa alla diminuzione dei costi hardware; dall'ottimizzazione delle tecniche di compressione alla crescente capacità di calcolo.
Tuttavia, se dovessimo indicare il principale artefice della deriva, tutti quanti punteremmo il dito sulla forte crescita delle reti Ethernet, sui vantaggi economici del suo cablaggio strutturato e sulla flessibilità del protocollo in architetture eterogenee.
I vantaggi del digitale (e del suo mercato) sono stati fin da subito così evidenti che in pratica ci siamo persi le modalità della “migrazione”: di fatto la Tvcc è entrata nell'universo IP adottandone i meccanismi, i protocolli e gli standard, senza mai contestualizzare l'applicativo video nell'ottica di soddisfare i principali requisiti che lo rendono “semplicemente diverso” dalle altre applicazioni.
L'effetto? I produttori hanno spinto al massimo il time-to-market dei dispositivi IP per realizzare soluzioni sempre più performanti, che sfruttano il top delle tecnologie come il megapixel o l'analisi video ma che spesso si dimostrano poco flessibili, anche se basate su una infrastruttura modulare e scalabile come quella di rete.
In effetti, parlare della necessità di uno standard nel segmento della videosorveglianza non é corretto.
Qualsiasi soluzione IP utilizza già un numero cospicuo di standard, in parte ereditati dall'infrastruttura di trasporto, in parte dai formati e risoluzioni dei sensori, altri dai metodi di compressione o ancora dalla codifica audio o dai metodi di autenticazione.

Il concetto di "interoperabilità"

Più che di mancanza di uno standard, sarebbe più corretto parlare della necessità di dotare gli apparati che compongono il sistema video di interoperabilità.
L'interazione tra i dispositivi nati da diverse case costruttrici è stato fino ad oggi garantita per mezzo dei driver, porzioni di codice studiate, implementate e mantenute con un solo obiettivo: la compatibilità tra apparati di brand diversi.
Tuttavia, lo sviluppo di driver dedicati non sembra più uno strumento valido per assicurare all'utente finale l'apertura della piattaforma.
Il numero dei brand cresce e con esso il numero di apparati; la tecnologia evolve velocemente e sono sempre più frequenti aggiornamenti contenenti gli ultimi ritrovati ma che mettono in crisi una piattaforma basata su driver.
Dal punto di vista del produttore, l'implementazione - nei propri sistemi - di apparati di terze parti è diventata una necessità.
L'utente finale, d'altra parte, identifica nelle soluzioni “open” la possibilità di scegliere il top di gamma offerto in quel momento dal mercato e, allo stesso tempo, ha garanzia dell'investimento effettuato data la flessibilità delle operazioni più comuni, come la sostituzione di una telecamera o l'introduzione di una risoluzione migliorativa.
Infine, anche per gli sviluppatori di soluzioni software il maintenance dei sistemi è diventato oneroso e, in aggiunta, la necessità di mantenere la compatibilità con quanto già integrato ritarda lo sviluppo delle nuove features.
Questi forse i motivi che, nel 2008, hanno spinto i principali brand della Tvcc (e non solo) a confrontarsi su un problema non attuale a quel tempo, ma facilmente prevedibile.

Superare i limiti di incompatibilità: ONVIF e PSIA

Esasperandone il significato, provate a immaginare come sarebbe il Web se gli switch non comunicassero tra loro: una serie di reti scollegate o collegate a tratti, di poca utilità anche per la posta elettronica.
Ora, rovesciando il ragionamento, provate a immaginare le potenzialità della videosorveglianza in un'infrastruttura modulare come quella di Internet e aggiungete che, continuando con questa velocità di sviluppo, le bande e l'affidabilità delle reti non saranno più un problema... E' sicuramente ambizioso, ma siamo vicini al concetto del network video recorder virtuale che, più che un apparato, identifica un “servizio”.
In fondo, il video-on-demand è già entrato nelle nostre case e promette di rivoluzionare in maniera radicale il nostro hobby preferito.
Tuttavia, per esplorare le possibili implementazioni, è necessario superare gli attuali limiti di compatibilità.
E di questo si stanno occupando le due organizzazioni nate dal confronto tra produttori: l'Open Network Video Interface Forum (ONVIF, www.onvif.org) e la Physical Security Interoperability Alliance (PSIA, www.psialliance.org).
In un mercato privo di standard di compatibilità, la nascita - in breve tempo - di due organizzazioni può sembrare un paradosso.
In realtà, la differenza di obiettivi e i diversi metodi implementati sono una garanzia per l'utente finale, che potrà scegliere quale standard meglio soddisfa le proprie esigenze.
Almeno in prima stesura, gli obiettivi sembrano divergere: ONVIF ha l'intento di costruire i protocolli per regolamentare il mercato della videosorveglianza delineando i metodi di scoperta dei dispositivi sulla rete, di accesso alle risorse degli apparati, di richiesta degli streaming o del semplice scambio di informazioni tra device di marche diverse.
I metodi si basano sui già affermati servizi Web e sulla “leggerezza” del protocollo di comunicazione SOAP - Simple Object Application Protocol.
Diverso è l'approccio di PSIA, che cerca di promuovere un modello di sviluppo di tutti gli apparati di sicurezza, che devono interagire - o semplicemente convivere - sulla stessa infrastruttura di rete.
Un nuovo framework per l'interoperabilitá, non dei soli apparati video ma di tutti gli apparati di security, come il controllo accessi o il software di building management.
Il concetto focale alla base del paradigma è che in rete esistano delle risorse identificabili in maniera univoca (telecamere, rilevatori...) e che i client conoscano il risultato dell'informazione restituita (streaming, stato...), in modo da accedere alla risorsa con un insieme vincolato di operazioni e contenuti.
La conoscenza del tipo di informazione restituita,in gergo tecnico si chiama “rappresentazione”, dalla quale prende il nome l'architettura software utilizzata, “REpresentational State Transfer" (REST).
E' importante sottolineare che le due organizzazioni non sono in competizione, ma cercano di collaborare per la riuscita dei progetti.
Avere diversificato la soluzione nelle scelte strutturali ha, infatti, un ulteriore vantaggio: l'aderenza dei prodotti a uno standard non è preclusione della soddisfazione dei requisiti dell'altro, che si tradurrà nella nascita di telecamere o registratori certificati per entrambi.
E' il caso, ad esempio, di Pelco che - come membro fondatore di PSIA e allo stesso tempo utente del forum ONVIF - ha in roadmap apparati in grado di soddisfare entrambi i paradigmi.
Tra le comunità che stanno promuovendo gli standard di videosorveglianza è doveroso citare anche la meno conosciuta HDcctv Alliance (www.highdefcctv.org), che si differenzia notevolmente per la scelta dell'infrastruttura di trasporto.
L'Alleanza è, infatti, impegnata nello sviluppo di uno standard per la trasmissione del video in alta definizione sul cavo coassiale.
La scelta é probabilmente appetibile per la salvaguardia dell'investimento fatto in passato, ma dovrà scontrarsi con la migliore scalabilità delle soluzioni over IP.

La vera sfida? Acquisire consapevolezza

Se tecnicamente il processo di standardizzazione è già cominciato e la strada è ben delineata, meno facile è prevedere le tempistiche con cui il mercato italiano riuscirà ad assorbire i nuovi concetti e sfruttarne le potenzialità.
La migrazione dalla tecnologia analogica a quella digitale è più lenta del previsto, ma non credo possa essere imputata alla mancanza di standard o di regole.
Ci sono elementi che hanno maggior impatto, come la necessità di competenze diverse in tutti i player, la lentezza nel trasformare il progetto in cantiere o, più semplicemente, la maggior confidenza in una soluzione adottata per anni.
E' per questo realistico pensare che la consapevolezza di una soluzione costruita non più su un brand ma su un'architettura basata su standard, arriverà come naturale conseguenza della maturazione del mercato IP.
A quel punto si inizierà a rispondere a molte domande che oggi sono aperte: verranno mantenuti entrambi gli standard o uno prevaricherà sull'altro?
Ci sarà una confluenza tra i due o addirittura la nascita di un terzo, migliore e innovativo?
I prodotti aderenti agli standard saranno di qualità superiore o il mercato sarà invaso da prodotti di fascia più bassa perché comunque aderenti?
Spariranno le soluzioni proprietarie?
I fattori di influenza saranno molteplici e le previsioni rischiano di essere smentite.
Tuttavia è importante sottolineare alcuni punti fermi del processo in corso.

Le dinamiche del processo di standardizzazione

In primis, per arrivare a definire uno standard non è sufficiente costruire le regole di sviluppo e i meccanismi di certificazione.
Uno standard diventa tale quando è riconosciuto da un Organo internazionale come l'International Organization for Standardization (ISO) o l'Institute of Electrical and Electronics Engineers (IEEE)
.
Per sottoporre gli elaborati a un Organo internazionale, è necessario specificare le necessità e gli scopi, creare Associazioni di stampo universitario o di settore, descrivere in modo dettagliato le soluzioni adottate e soprattutto sottoporre le specifiche a test effettuati in laboratorio o a Comunità in grado di rilevarne le reali qualità ed estrapolarne solo le parti realmente efficaci.
Le tempistiche del processo dipendono molto dalla dimensione del progetto.
In particolare, per l'interoperabilità dei sistemi video le difficoltà si sommano, in quanto non stiamo parlando di un singolo prodotto, ma di un protocollo di comunicazione tra apparati di natura diversa, con differenti compiti e soggetti a evoluzioni indipendenti.
Citando alcuni esempi di pari livello, il protocollo LonWorks - utilizzato frequentemente nella domotica e nell'automazione degli edifici - è nato intorno alla fine degli anni '80, completando però l'iter di standardizzazione solo nel recente 2008.
Se, invece, diamo uno sguardo alle reti Ethernet - utilizzate anche dagli apparati Tvcc - il diffusissimo protocollo TCP è stato creato nel 1970 per applicazioni host-to-host in campo militare, ma é diventato parte del programma IETF (Internet Engineering Task Force) solo una decina di anni dopo.
Queste semplici considerazioni aiutano a fare riflettere sull'attuale situazione, nella quale le alleanze si stanno ancora formando e hanno generato la prima e incompleta release del paradigma adottato specificando il core, ovvero il cuore dell'elaborazione. Sicuramente la velocità di sviluppo è migliorata rispetto allo scorso decennio e sulla bontà delle soluzioni avrà impatto anche quanto le aziende investiranno negli anni a venire. Ma è realistico pensare che nel breve periodo si continuerà a parlare degli standard ONVIF e PSIA come di due diversi rami di sviluppo non ancora consacrati.

La qualità dei futuri prodotti

Per rispondere agli interrogativi sulla qualità dei futuri prodotti, è forse comodo appoggiarci a esempi consacrati in altri settori.
I sette livelli ISO/OSI - che implementano in modo rigoroso le comunicazioni tra i computer e loro applicativi - sono la base di tutti gli apparati attivi della rete quali hub, switch o router.
Una definizione così precisa dei metodi di comunicazione farebbe pensare ad apparati con performance similari.
E invece, dando uno sguardo all'offerta, è facile rendersi conto delle variabili in gioco nella scelta di uno switch.
E' indicativo il fatto di come la maturità di questo mercato - dominato da uno standard fin dal 1978 - sia stata capace di mantenere le differenze economiche dell'offerta soprattutto riconoscendone la qualità del brand.
Perché per le telecamere non dovrebbe succedere la stessa cosa?
Diversa è, invece, l'analisi dal punto di vista dei sistemi. E anche qui possiamo aiutare il ragionamento pensando a quello che è successo al mondo multimediale dopo il restyling di Apple.
La compatibilità con Windows è assicurata. Ma se si vogliono sfruttare tutti i vantaggi degli applicativi, è meglio rimanere all'intero della piattaforma Mac.
Allo stesso modo, è facile immaginare che i protocolli della sicurezza saranno orientati all'interazione tra i vari server e client presenti sulla rete, con particolare focus sullo streaming, la gestione degli allarmi o ancora sulla modalità di funzionamento dell'analisi video.
Ma difficilmente i punti di ripresa e i sistemi di gestione di differenti case potranno sfruttare l'uno tutte le caratteristiche dell'altro.
Un esempio concreto lo abbiamo pensando alla piattaforma Full HD Endura, proposta da Pelco.
La soluzione di gestione e registrazione ha avuto negli ultimi anni un'evoluzione orientata all'integrazione.
L'interoperabilità con apparati di terze parti è garantita, ma l'utilizzo delle tecnologie proprietarie di auto-ottimizzazione dei monitor (EnduraView) e di gestione oculata degli hard disk (EnduraStor) sono garantite solo con telecamere Pelco, perché all'interno di una architettura REST sono le uniche a rappresentare quel tipo di servizio.

Prodotti e sistemi rimarranno gli attori principali dell'evoluzione tecnologica, ma il processo di standardizzazione della Tvcc potrebbe essere l'artefice della maturazione di un mercato che sta esprimendo - con la lentezza nella migrazione verso soluzioni IP - un certo disagio.
Per contro, sono certo che non sarà necessario attendere il completamento dell'iter per apprezzare i reali benefici dei nuovi paradigmi.
La nascita di uno standard e l'affidabilità delle soluzioni multi-brand saranno presto un'importante sottointesa garanzia, che spingerà nuovamente il cliente a scegliere un prodotto semplicemente “perché piace” oppure - come è d'suo dire nell'ambito della videosorveglianza - “perché si vede meglio”.

Pubblica i tuoi commenti