Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Genesi dell’informatica ed evoluzione dell’uomo nel digitale.

29 Aprile 2021 07:30

Autore: Davide Floris
Data Pubblicazione: 18/04/2021

l termine informatica è stato creato nel 1962 da Philippe Dreyfus, partendo dalle parole “informazione” e “automatico”.

Il mondo è scivolato dall’era industriale all’epoca digitale.

Ma Roma non è stata costruita in un giorno… l’informatica come la conosciamo oggi ha richiesto diversi anni e l’operato di vari matematici, fisici e teorici.

L’uomo ha fabbricato degli strumenti e poi delle macchine, ossia degli oggetti in grado di utilizzare forze terze, in grado di eseguire in modo autonomo delle operazioni, anche complesse e programmate, come nel caso della prima programmazione binaria, del 1801.

Ma la macchina meccanica non è in grado di modificare se stessa.

Al contrario, il computer, macchina delle informazioni, sa modificare il suo programma e diventa una macchina universale. Questa consente di dominare l’intelligenza universale.

Jèrôme Chailloux disse:

“Il web è l’invenzione più utile per l’umanità dai tempi della peggiore invenzione, ossia la bomba atomica”.

Possiamo ben dire che lo scopo finale dell’informatica è dare sfogo al pensiero del calcolo per renderlo eseguibile da una macchina sorprendentemente rapida ed esatta, ma sprovvista di ogni pensiero.

Calcolare è innanzitutto risolvere un problema preciso secondo istruzioni precise, infatti lo sviluppo dell’informatica è in realtà molto legato alla ricerca fondamentale in matematica e più esattamente alla logica e agli algoritmi apparsi nel IX secolo grazie al lavoro di Abu Jaffar Al Khwarizmi, anche detto Signor Algoritmo (di fatto, “algoritmo” è una semplice trasformazione del suo nome.)

L’informazione è una materia astratta ma misurabile.

Un messaggio, col suo valore reale o presunto, esatto o meno nel senso, contiene una quantità precisa di informazioni. L’atomo di una informazione è l’elemento binario, il bit come «si / no», «0 / 1» o «vero / falso».

Shannon ha definito la quantità di informazioni in modo matematico con la teoria della probabilità che Kolmogorov ha messo sotto forma di equazioni.

Ciò ha permesso una trasformazione della visione del mondo negli scambi numerici. Ogni oggetto (immagine, suono, testo, dati) ha un riflesso numerico che consente di trasmettere l’informazione, di memorizzarla, di riprodurla all’infinito, di manipolarla all’infinito in modo specifico, grazie ad ogni sorta di algoritmo.

L’informatica così come la conosciamo oggi è legata a diverse grandi scoperte ed evoluzioni nel corso del tempo che hanno portato l’uomo nell’era del digitale:

  • IX secolo: Abu Jaffar Al Khwarizmi è padre fondatore dell’algoritmica, strettamente legata all’informatica
  • 1632: Invenzione della regola per calcolare da parte di William Oughtred
  • 1645: Blaise Pascal inventa la macchina per calcolare,
  • 1703: Scoperta dell’aritmetica binaria da parte di Leibniz,
  • 1801: Invenzione del primo telaio interamente programmabile ad opera di Jacquard
  • 1843: Invenzione del primo programma informatico o da parte di Ada Lovelace, utilizzato per la costruzione della macchina analitica di Babbage

I pionieri dell’informatica:

  • 1914: Prima macchina elettromeccanica analitica ad opera di Leonardo Torres Quevedo
  • 1928: Algoritmo MinMax di Von Neumann
  • 1936: Macchina di Turing
  • 1939: Inizio della costruzione del Mark I
  • 1942: Decriptaggio della macchina Enigma da parte di Alan Turing
  • 1954: Creazione del Fortran, primo linguaggio di programmazione di alto livello implementato da un computer
  • 1955: Presentazione del computer IBM 650
  • 1962: Invenzione della parola “informatica”
  • 1970: Fondazione dello Xerox Park

La micro-informatica:

  • 1971: Primo microprocessore Intel 4004 di Marcian Hoff
  • 1972: Nasce il linguaggio C
  • 1975: Fondazione di Microsoft
  • 1976: Fondazione di Apple
  • 1982: Definizione della parola Internet
  • 1984: Uscita del Macintosh
  • 1988: Messa sul mercato del mini computer AS-400 dell’IBM

L’era del World Wide Web:

  • 1989: 100 000 computer vengono connessi ad Internet
  • 1992: 1 000 000 di computer sono connessi a Internet
  • 1995: Esce Windows 95
  • 1998: Lancio dell’iMac
  • 2001: Esce Windows XP e nasce Wikipedia
  • 2004: Esce Mozilla Firefox

L’era dei dati condivisi:

  • 2008: Compare il termine MOOC (corsi aperti online, corsi di informatica online)
  • 2009: Primo tablet tattile lanciato da Archos
  • 2010: Sviluppo dell’informatica con cloud
  • 2011: Le vendite degli smartphone superano quelle dei computer
  • 2014: Oltre un miliardo di siti web esistono
  • 2016: Il motore di ricerca Google Chrome supera le quote di mercato di Internet Explorer

“Il progressivo sviluppo dell’uomo dipende dalle invenzioni. Esse sono il risultato più importante delle facoltà creative della mente umana.”

– Nikola Tesla.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…