Di LORENZO PEZZATO
Il nostro cervello è programmato per renderci indifferenti nei confronti dei nostri simili, a meno che non intervengano fattori esogeni ritenuti interessanti e quindi legittimati a penetrare il velo di indifferenza che ci protegge.
Pensiamo a un soggetto che cammina per una via affollata in un grande capitale, incontrando centinaia e centinaia di persone in una spazio di tempo molto ristretto non avrebbe modo di processare cerebralmente la quantità di stimoli in entrata cui rispondere, finendo in overflow. L’indifferenza è quindi uno strumento necessario alla vita sociale complessa.
Non siamo però indifferenti ad ogni stimolo, ed esiste un criterio di selezione automatico capace di inibire l’indifferenza nel momento in cui uno stimolo interessante viene intercettato. Pur essendoci ovviamente delle eccezioni, di norma le barriere si abbassano in una gamma di situazioni piuttosto limitata, basica: se l’altro soggetto rappresenta una minaccia o un potenziale pericolo, un potenziale partner sessuale o se invece rientra nella cerchia di persone conosciute.
Possiamo quindi dire che, per funzionare correttamente entro i propri limiti biologici, il cervello mette l’ostacolo dell’indifferenza sulla strada dell’incalcolabile flusso di stimoli che arrivano dall’esterno, per rallentarli mentre viaggiano verso di noi, facendone inciampare la maggior parte.
Un esempio di come abbiamo replicato questo principio in campo meccanico è la storia della tastiera qwerty: quando è stata inventata la macchina da scrivere a martelletti meccanici infatti, la configurazione qwerty della tastiera è stata studiata per rallentare i dattilografi in modo che la velocità con cui li pigiavano non eccedesse la velocità di reazione dei meccanismi, facendoli inceppare. Ancora oggi, anche se l’elettronica ha risolto il problema degli inceppamenti, la configurazione qwerty è universalmente utilizzata pur non essendo lo strumento migliore per lo scopo. Questo genere di limitazione strutturale è percepibile anche nel linguaggio (orale e scritto), e le avanguardie letterarie hanno cercato con ogni mezzo di spingerlo oltre questo limite, senza mai generarne uno davvero nuovo, che non fosse in qualche modo derivato da quello originario. La tastiera qwerty nasce però come sistema-ostativo, il linguaggio lo è diventato nel tempo.
Ma perché abbiamo sviluppato un linguaggio orale e scritto?
Perché l’evoluzione non ci ha concesso di trasmettere pensieri (e concetti e sensazioni) senza bisogno di un media-traduttore convenzionale, condiviso?
Quello che utilizziamo è l’unico linguaggio possibile? O è il migliore possibile?
I primi esseri umani probabilmente comunicavano per via empatica e attraverso il linguaggio del corpo. Quando l’entropia dovuta allo sviluppo evolutivo, encefalico e sociale ha superato il limite critico, la massa di informazioni/idee che ogni individuo poteva trasmettere ai simili è cresciuta esponenzialmente così come il numero di individui presenti contemporaneamente nel nucleo (clan, tribù, villaggio, etc.). Oltre il limite critico di flusso, semplicemente, gli strumenti biologici (cervello) e di comunicazione (empatico-corporale) non sono più stati sufficienti a supportarne la complessità.
Raggiunto il massimo di encefalizzazione della specie imposto dalla Natura, non potendo l’essere umano intervenire volontariamente né sulla velocità di trasmissione dei pensieri (per rallentarli) né sullo sviluppo dell’infrastruttura fisica deputata a inviarli/riceverli, è emersa la capacità di astrazione che ha dato origine ad un linguaggio strutturato e logico. Un fenomeno che riconosciamo facilmente anche nei modelli di urbanizzazione ad altissima densità che costituiscono le metropoli: non essendoci spazio per espandersi in ampiezza, crescono in verticalizzazione (astrazione, nel caso del linguaggio e del cervello). Un esempio tipico di verticalizzazione logico-grammaticale è la necessità di inventare e coordinare tra loro tempi verbali capaci di collegare nello stesso messaggio spazi cronologici distinti e distanti tra loro.
In sintesi: il linguaggio è un media-ostativo, funzionale a rallentare la trasmissione delle informazioni fino a un livello compatibile con i limiti di emittente e ricevente.
Negli ultimi decenni il mondo attorno a noi è cresciuto in entropia a velocità mai sperimentate prima, e ci troviamo di nuovo al punto critico dei nostri antenati.
Il linguaggio che utilizziamo ha raggiunto la sua massima capacità in termini di rapporto sforzo/efficienza?
Se abbiamo bisogno di un media linguistico più performante, è possibile fare un radicale upgrade di quello attuale per spingerlo ad una strutturazione più evoluta, sulla scia della transizione da Bit a Qubit?
Possiamo modellizzare il linguaggio con una sfera (semantica) che contenga tutti i significati in forma di punti senza dimensioni, infinitamente densi ciascuno del proprio significato definito, originario, preciso. Da ciascuno di questi punti –che chiameremo significato nucleico- si diramano in ogni possibile direzione -sotto forma di vettori semantici che poi definiremo come “variabile semantica β” – tutte le differenti determinazioni possibili del significato (sfumature, metasignificati, contestualizzazioni, diminutivi, accrescitivi, etc.) fino a saturare tutto lo spazio semantico attorno al significato di riferimento, spazio sferico a sua volta, senza dimensioni e limitato in ogni direzione dalla presenza dei contigui.
Si ricava l’equazione che esprime il significato nucleico:
Ʃn (β x αs) = S
cioè, il significato nucleico S è dato dalla sommatoria ennesima del prodotto tra la variabile semantica β e il significante s, corretto dalla variabile fonografica α (come esempio di questa variabilità si può guardare all’imprecazione, anche blasfema, che cambiando intonazione esprime diversi significati).
La sommatoria di tutte le possibili determinazioni, anche quelle non ancora realizzatesi, risulta in un valore ipotetico tale da far coincidere il significante (suono o segno grafico) e il significato specifico definito cui è riferito.
La sfera semantica, massimamente densa in ogni istante di tempo, tende a diventare sempre più asintotica alla saturazione man mano che vengono introdotti nuove determinazioni o neologismi. Aumentando la densità della sfera, i significati nucleici si comprimono tanto da scendere sotto il limite che chiameremo H (per poterlo rapportare alla costante H di Planck) e potersi fondere in un unico supersignificato espresso da un un superfonema (o un supergrafema). Al di sotto del limite della costante H, quindi, la comunicazione e il linguaggio così come li conosciamo non hanno più senso.
I significati nucleici distribuiti all’interno della sfera semantica si comportano secondo i principi dell’entanglement quantistico, ovvero il legame di natura fondamentale esistente tra particelle costituenti un sistema quantistico. In base ad esso, lo stato quantistico di ogni costituente il sistema dipende istantaneamente dallo stato degli altri costituenti.
Immaginiamo il significato nucleico come un qubit capace di trasportare in sé tutto il proprio significato, quello definito e quello sviluppato attraverso le determinazioni; questo qubit semantico è in relazione -entanglement- con tutti gli altri e quindi il suo stato dipende istantaneamente da quello degli altri, proprio come avviene in uno stormo di uccelli in volo.
Ricordiamo il Principio di sovrapposizione: ogni stato quantistico è in generale dato dalla sovrapposizione di un numero infinito di stati. Il significato nucleico non è quindi mai definitivamente definito e non ha modo di esserlo; questo genera una indeterminazione che si amplifica esponenzialmente ad ogni unità di comunicazione prodotta/ricevuta.
E’ quindi possibile scrivere la seguente equazione:
αs + βS = ψs
dove α è la variabile fonografica, s il significante, β la variabile semantica, S il significato puntuale (definito) e ψs rappresenta lo stato quantosemantico, stato quantico in fisica: la condizione microscopica istantanea di un generico sistema fisico.
Le determinazioni di significato effettuate dall’emittente e dal ricevente influenzano in modo non calcolabile i concetti comunicati. Perciò è impossibile determinare contemporaneamente significante e significato di una particella comunicativa (Principio di indeterminazione del significato).
Il concetto/significato di “FORSE” può essere esplicativo della traslazione in semantica del Principio di sovrapposizione: ogni stato quantistico è in generale dato dalla sovrapposizione di un numero infinito di stati.
I fenomeni legati alla sovrapposizione di stati sono dovuti all’interferenza della funzione d’onda di un oggetto con se stessa. In generale, supponendo di avere una variabile aleatoria associata a un qualunque fenomeno fisico, essa può essere descritta tramite la sua legge di distribuzione, che dà la probabilità che essa assuma un determinato valore in un determinato spazio-tempo. Così l’assunzione di un determinato valore semantico da parte di un fonema o grafoma è sempre una probabilità, e questa indeterminazione non può che riversarsi sul ricevente, il quale a sua volta opererà una propria ulteriore attribuzione di valore semantico.
Allora l’equazione deve essere integrata da un coefficiente di distorsione D in modo che sia:
αs + βS = ψsD
Il linguaggio che utilizziamo, però, tende a determinare puntualmente i significati per massimizzare l’efficacia (processo di sintesi) ed evitare dispersioni di senso che, moltiplicandosi, produrrebbero un’indeterminazione tale da rendere inutile qualunque tentativo di comunicare idee o concetti. La semplice probabilità che la parola “albero” inserita in una frase significhi effettivamente “albero”, non è condizione sufficiente a stabilire una comunicazione stabile e condivisa. Bisogna quindi accettare che, pur con una certa variabilità, αs sia componente necessariamente convenzionata (deterministica, non quantistica). Una componente convenzionata, anche una sola, determinata a priori, rende impossibile la sovrapposizione coerente contemporanea di tutti gli stati (sarebbero infatti n-1 stati) del sistema, di fatto impedendone una riconfigurazione in ambito quantistico.
È possibile velocizzare la trasmissione di significati, renderla più verticale, astratta, slegata dall’apparato grammaticale e lessicale, ma il limite intrinseco di massima efficacia rimane, ed è stato raggiunto.
Per comunicare l’entropia (anche sentimentale, spirituale) dell’umanità moderna non serve un linguaggio nuovo ma un nuovo linguaggio, un media-agevolativo e non più ostativo.
Al momento, però, servono innanzitutto parole nuove per descriverlo.
Definizioni
Stato quantico: condizione microscopica istantanea di un generico sistema fisico.
Principio di sovrapposizione: ogni stato quantistico è in generale dato dalla sovrapposizione di un numero infinito di stati.
Principio di indeterminazione: le misurazioni effettuate dall’osservatore influenzano i fenomeni osservati in modo non calcolabile. Perciò è impossibile determinare contemporaneamente la velocità e la posizione di una particella.
Entanglement quantistico: legame di natura fondamentale esistente tra particelle costituenti un sistema quantistico. In base ad esso, lo stato quantistico di ogni costituente il sistema dipende istantaneamente dallo stato degli altri costituenti.
Significato nucleico: la parte invariabile del significato, origine dei vettori semantici che formano la sfera semantica intorno ad essa.
Vettore semantico: determinazione (metasignificato, sfumatura) che origina vettorialmente dal significato nucleico.
Costante di Planck (H): costante fisica che rappresenta l’azione minima possibile, o elementare.
Bit: quantità minima di informazione binaria (0/1) che può essere gestita da un computer. Ogni bit può assumere esclusivamente valore 0 o valore 1.
Qubit: quantità minima di informazione binaria (0/1) che può essere gestita da un computer quantistico. Ogni Qubit può assumere contemporaneamente i valori 0 e 1.