Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Il Cervello Umano è un Supercomputer. Una nuova ricerca svela il potere delle sinapsi

Redazione RHC : 7 Agosto 2024 08:54

Un nuovo studio ha dimostrato che il cervello umano è in grado di trattenere quasi 10 volte più informazioni di quanto si pensasse in precedenza. Come i computer, la capacità di memoria del cervello si misura in “bit ” e il numero di questi bit dipende dalle connessioni tra i neuroni, note come sinapsi.

In precedenza, gli scienziati credevano che le sinapsi avessero un numero limitato di dimensioni e punti di forza, che limitavano la capacità di memoria del cervello. Tuttavia, nuove prove confermano che il cervello può immagazzinare molte più informazioni.

Nello studio, gli scienziati hanno sviluppato un metodo estremamente accurato per valutare la forza delle connessioni tra i neuroni in una parte del cervello di un ratto. Queste sinapsi svolgono un ruolo chiave nell’apprendimento e nella memoria poiché sono il luogo in cui le cellule cerebrali si scambiano informazioni.

Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011 per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo

Una migliore comprensione di come le sinapsi si rafforzano e si indeboliscono ci consente di determinare con maggiore precisione la quantità di informazioni che queste connessioni possono immagazzinare. L’analisi, pubblicata sulla rivista Neural Computation , dimostra come questa nuova tecnica potrebbe migliorare la nostra comprensione dell’apprendimento, dell’invecchiamento e delle malattie che distruggono le connessioni nel cervello.

Secondo Jay Yu, assistente professore di neurofisiologia presso l’Università di Chicago, questi approcci aiutano a comprendere il potenziale di elaborazione delle informazioni dei circuiti neurali. La capacità di stimare quante informazioni è importante per comprendere come il cervello esegue calcoli complessi.

Il cervello umano ha più di 100 trilioni di sinapsi tra i neuroni. I messaggeri chimici vengono trasmessi attraverso queste sinapsi, facilitando la trasmissione delle informazioni in tutto il cervello. Man mano che l’apprendimento progredisce, aumenta la trasmissione delle informazioni attraverso le sinapsi. Questo “rafforzamento” delle sinapsi ci consente di immagazzinare nuove informazioni. In generale, le sinapsi si rafforzano o si indeboliscono a seconda dell’attività dei neuroni che le costituiscono, un fenomeno noto come plasticità sinaptica.

Tuttavia, con l’età o con lo sviluppo di malattie neurologiche come il morbo di Alzheimer, l’attività delle sinapsi diminuisce, indebolendo le capacità cognitive e la capacità di immagazzinare e recuperare ricordi.

Gli scienziati possono misurare la forza delle sinapsi analizzando le loro caratteristiche fisiche. I messaggi inviati da un singolo neurone talvolta attivano una coppia di sinapsi, consentendo di esaminare la precisione della plasticità sinaptica. Ciò significa che è possibile determinare se le sinapsi si rafforzano o si indeboliscono allo stesso modo quando ricevono lo stesso messaggio.

Misurare la precisione della plasticità sinaptica è stato impegnativo, così come stimare la quantità di informazioni che ciascuna sinapsi può immagazzinare. Il nuovo studio cambia la situazione. Per misurare la forza e la plasticità delle sinapsi, il team ha utilizzato la teoria dell’informazione, un metodo matematico che aiuta a comprendere come le informazioni vengono trasmesse attraverso un sistema. Questo approccio consente inoltre agli scienziati di quantificare la quantità di informazioni che possono essere trasmesse attraverso le sinapsi, dato il “rumore di fondo” del cervello.

L’informazione trasmessa viene misurata in bit, quindi una sinapsi con più bit può immagazzinare più informazioni di una sinapsi con meno bit, spiega Terrence Sejnowski, coautore dello studio e direttore del Computational Neuroscience Laboratory presso il Salk Institute for Biological Studies. Un bit corrisponde a una sinapsi che trasmette informazioni a due livelli di forza, mentre due bit consentono di trasmettere informazioni a quattro livelli di forza e così via.

Il team ha analizzato coppie di sinapsi dell’ippocampo dei ratti, un’area del cervello che svolge un ruolo importante nell’apprendimento e nella formazione della memoria. Queste coppie di sinapsi erano adiacenti e attivate in risposta agli stessi segnali cerebrali. Lo studio ha scoperto che, dato lo stesso input, queste coppie venivano rafforzate o indebolite nella stessa quantità, indicando che la forza delle sinapsi nel cervello è regolata in modo molto preciso.

L’analisi ha mostrato che le sinapsi nell’ippocampo possono immagazzinare tra 4,1 e 4,6 bit di informazioni. Gli scienziati sono giunti a una conclusione simile in un precedente studio sul cervello di ratto, ma hanno utilizzato un metodo meno preciso. Una nuova ricerca conferma l’ipotesi di molti neuroscienziati secondo cui le sinapsi possono immagazzinare molto più di un bit di informazione.

Questi risultati si basano su una piccola regione dell’ippocampo del ratto, quindi non è chiaro come si estendano all’intero cervello del ratto o dell’uomo. In futuro, la tecnica potrà essere utilizzata per confrontare la capacità di memoria di diverse regioni del cervello, nonché per studiare cervelli sani e malati.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.