Sottotitolato: in Italia invece gruppi criminali che talvolta manco sanno di essere orchestrati da fuori, montano il caos per generare caos, a vantaggio di stranieri dall’accento Americano e col ‘dialetto mafioso’.

Partendo da una serie numerica di bit 0 ed 1, applicandovi qualsiasi algoritmo di compressione anche con perdita d’informazioni, esegunendo multiple ricompressioni, appuntando gli Hash delle serie numeriche precedenti la compressione, si arriva al termine di X compressioni con un numero di bit ovviamente ridotto, rispetto alla serie iniziale, ed un numero di Hash pari ad X+1 compressioni: l’originale, il finale e gli intermedi.

Andando a ritroso essendovi stata anche perdita d’informazioni tra una compressione e l’altra ma avendo appuntato l’hash delle serie precedentemente alle varie compressioni si può risalire alla esatta serie iniziale conoscendo:

il numero di bit finali

il numero di volte in cui è stato applicato l’algoritmo di compressione

gli hash delle serie prima di ogni compressione

di modo da applicare l’algoritmo di decompressione (che contiene variabili non note) ad i bit finali, comportando possibili serie numeriche di bit tra le quali vi è una sola serie che corrisponde all’hash della serie originale precedente alla compressione.

Applicando, all’unica serie ‘rigenerata’ tramite il passaggio precedente, una nuova decompressione alla serie, che genera diverse serie numeriche secondo l’algoritmo, contenente variabili non note, tra le quali solo una corrisponde ad un hash che era stato inserito in una libreria in fase di compressione, si ritorna passaggio dopo passagio verso la serie originale di dati.

In altri termini, calcolatore permettendo, su di una ‘segmento’ di retta che ‘geometricamente’ descrive la unica possibile compressione di dati, applicando un determinato algoritmo che comporta perdite, giacciono i diversi punti corrispondenti a serie di dati compressi e gli hash precedenti la compressione tra un punto e l’altro, all’inizio del segmento avremo la serie iniziale e l’hash corretto, alla fine del segmento avremo la serie compressa con perdita di informazioni.

Andando a ritroso partendo dalla serie finale e verificando tutte le possibili variabili serie decompresse, all’altro capo della retta dove vi è il punto con la serie iniziale di dati e l’hash corretto della serie originale, si arriva solo passando per la decompressione intermedia di quelle serie di dati che corrispondono agli hash intermedi.

Aumentando il numero di punti intermedi dove si sono rilevati gli hash si può realizzare un algoritmo di compressione progressiva che in fase di compressione ammette la perdita di dati (ma mantenendo gli hash corretti intermedi) si può ridurre in fase di decompressione il numero di computazioni di serie numeriche tra le quali individuare quella che corrisponde all’unico hash ammesso, vi ed in fase di decompressione invece ammette solo la serie di dati che a ritroso porta a quegli hash.

Scritto più brevemente: da una serie di hash noti e corrispondenti a serie numeriche appartenenti a momenti diversi della compressione, passa l’evoluzione della decompressione di una sola serie di dati finale che torna ad essere quella iniziale, quella antecedente alla compressione. Un sistema del genere consente compressioni notevoli a fronte di computazioni molto maggiori ove vengono calcolate a ritroso anche le serie di dati ‘errate’, che generano hash non corrispondenti a quello della serie precedentemente alla compressione, che verranno escluse.

(Tratto da “Come scrivere una fesseria” edito da “Banali pensieri Soc.inAmm.quasiCont.” distribuito sugli alberi dalle tante ramificazioni ma con un solo frutto ed un solo tronco. Scritto a priori prima di pensare, abbastanza da tirare via il morale)

Advertisements