Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

AI e morale: le persone si fidano più delle AI che di un essere umano!

Redazione RHC : 10 Febbraio 2025 07:22

Un gruppo di scienziati giapponesi ha deciso di scoprire come le persone si rapportano ai giudizi morali dell’intelligenza artificiale. I risultati del lavoro, pubblicati sulla rivista Scientific Reports, sono stati sorprendenti. Si scopre che siamo più propensi a dare credito ad una intelligenza artificiale quando fornisce una valutazione positiva di qualcosa, soprattutto se contraddice l’opinione negativa di una persona.

Lo studio è stato condotto dal professor Hitoshi Yamamoto dell’Università di Risho e dal professor Takahisa Suzuki dell’Università di Tsuda. I ricercatori hanno preso in considerazione un difficile dilemma morale: se aiutare le persone con una cattiva reputazione. Queste situazioni sono spesso fonte di confusione, il che le rende ideali per imparare come prendiamo decisioni.

Sono stati condotti due esperimenti su volontari. La base era costituita da scenari di lavoro: ai partecipanti venivano mostrate situazioni ipotetiche in cui dovevano valutare le decisioni di due manager: una persona e un programma per computer. In ogni caso, i manager dovevano decidere se collaborare con un dipendente in base alla sua reputazione.

Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)

Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:

  • Creare Un Sistema Ai Di Visual Object Tracking (Hands on)
  • Social Engineering 2.0: Alla Scoperta Delle Minacce DeepFake
  • Doxing Con Langflow: Stiamo Costruendo La Fine Della Privacy?
  • Come Hackerare Un Sito WordPress (Hands on)
  • Il Cyberbullismo Tra Virtuale E Reale
  • Come Entrare Nel Dark Web In Sicurezza (Hands on)

  • Potete iscrivervi gratuitamente all'evento, che è stato creato per poter ispirare i ragazzi verso la sicurezza informatica e la tecnologia.
    Per ulteriori informazioni, scrivi a formazione@redhotcyber.com oppure su Whatsapp al 379 163 8765


    Supporta RHC attraverso:


    Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

    È stato scoperto un modello interessante: quando si tratta di decidere se collaborare con una persona in base alla sua reputazione, le persone in realtà si fidano di più dei giudizi dell’intelligenza artificiale. Questa caratteristica era particolarmente evidente quando l’algoritmo giustificava il rifiuto di prestare aiuto e la persona condannava tale comportamento.

    I ricercatori ritengono che le persone considerino l’intelligenza artificiale un giudice più imparziale degli esseri umani, le cui decisioni potrebbero essere influenzate da pregiudizi e motivazioni nascoste. Questa conclusione è particolarmente importante ora che l’intelligenza artificiale sta penetrando sempre più profondamente nella nostra vita quotidiana e persino nella sfera della giustizia.

    Finora, gli scienziati hanno osservato due fenomeni opposti nell’interazione delle persone con l’intelligenza artificiale: alcuni evitano gli algoritmi e non si fidano delle loro decisioni (“rifiuto algoritmico”), mentre altri accettano incondizionatamente qualsiasi verdetto della macchina (“ammirazione algoritmica”). Una nuova ricerca fa luce sulla natura di questi fenomeni e spiega come i dubbi sul giudizio morale di una situazione influenzino la propensione delle persone a fidarsi di una macchina.

    I risultati dello studio forniranno supporto agli sviluppatori di sistemi di intelligenza artificiale nella creazione di algoritmi in grado di prendere decisioni informate tenendo conto di tutte le circostanze. Comprendere cosa guida il nostro atteggiamento nei confronti dell’intelligenza artificiale ci aiuterà a creare tecnologie che si integrino armoniosamente nella vita sociale.

    Redazione
    La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

    Articoli in evidenza

    Verso il GDPR 2.0 a favore del settore tech e delle PMI, ma a quale costo?

    La notizia è stata anticipata da politico.eu: a partire da maggio 2025, la Commissione von der Leyen revisionerà il GDPR introducendo semplificazioni. Certo, non sarebbe male pubblicare prim...

    Kidflix è crollato! La piattaforma dell’orrore è stata smantellata: 79 arresti e 39 bambini salvati

    Oggi i bambini sono un po’ più al sicuro grazie ad una operazione di polizia coordinata da Europol che ha portato alla chiusura di Kidflix. Si tratta di una delle più grandi piattafor...

    Arriva Flipper One! : Kali Linux, FPGA e SDR in un solo dispositivo?

    Uno degli autori di Flipper Zero, Pavel Zhovner, ha condiviso i dettagli su come stanno procedendo i lavori su una nuova versione del multi-strumento per hacker: Flipper One. Lo sviluppatore ha pubbli...

    DarkLab intervista HellCat Ransomware! La chiave è “assicurarsi che tutti comprendano la cybersecurity”

    Il ransomware HellCat è apparso nella seconda metà del 2024 e ha attirato l’attenzione degli analisti grazie all’umorismo delle sue dichiarazioni pubbliche. Ricordiamo l’...

    X/Twitter nel Caos! Un Threat Actors pubblica 2.8 Miliardi di Account Compromessi

    Il 28 marzo 2025, un utente del noto forum di cybersecurity BreachForums, con lo pseudonimo ThinkingOne, ha rivelato quello che potrebbe essere il più grande data breach mai registrato nel mondo ...