Accedi all'area personale per aggiungere e visualizzare i tuoi libri preferiti
Autore principale: Franceschi, Claudio; Caldesi, Roberto
Pubblicazione: Firenze : Le Monnier, 2002
Tipo di risorsa: testo, Livello bibliografico: monografia, Lingua: ita, Paese:
Un computer (pronuncia italiana: /komˈpjuter/), in italiano elaboratore o calcolatore, è una macchina automatizzata programmabile in grado di eseguire sia complessi calcoli matematici (calcolatore) sia altri tipi di elaborazioni dati (elaboratore).Concepito come una macchina per automatizzare alcune capacità della mente umana, come ad esempio il calcolo e la capacità di memorizzazione potenziandone la portata e applicandole alla soluzione di particolari problemi scientifici e ingegneristici, solo a partire dalla seconda metà del XX secolo, evolve in macchina in grado di eseguire le elaborazioni dati più varie. Ci si riferisce comunemente al computer come ad un dispositivo elettronico e digitale, programmabile a scopo generico, costruito secondo il modello teorico-computazionale della cosiddetta macchina di Turing e la cosiddetta architettura di von Neumann, anche se oggi tuttavia il termine assume il significato più generico di sistema elettronico di elaborazione programmabile e non programmabile, includendo dunque una vasta gamma di tipologie di dispositivi: sebbene i computer programmabili a scopo generico siano oggi i più diffusi, esistono infatti in specifici ambiti di applicazione modelli di computer dedicati a vari campi e settori come automazione industriale, domotica, computer grafica. Nel corso della storia, l'implementazione tecnologica di questa macchina si è modificata profondamente sia nei meccanismi di funzionamento (meccanici, elettromeccanici ed elettronici), che nelle modalità di rappresentazione dell'informazione (analogica e digitale) che in altre caratteristiche (architettura interna, programmabilità, ecc.). In questa forma e al pari della televisione, esso rappresenta il mezzo tecnologico simbolo che ha maggiormente modificato le abitudini umane dopo la seconda guerra mondiale: la sua invenzione ha contribuito alla nascita e allo sviluppo dell'informatica moderna, che ha segnato l'avvento della cosiddetta terza rivoluzione industriale e della società dell'informazione.
L'informatica è la scienza che si occupa del trattamento dell'informazione mediante procedure automatizzate, avendo in particolare per oggetto lo studio dei fondamenti teorici dell'informazione, della sua computazione a livello logico e delle tecniche pratiche per la sua implementazione e applicazione in sistemi elettronici automatizzati detti quindi sistemi informatici; come tale è una disciplina fortemente connessa con la logica matematica, l'automatica, l'elettronica e anche l'elettromeccanica. Si accompagna e si integra o è di supporto a tutte le discipline scientifiche, e come tecnologia pervade pressoché qualunque "mezzo" o "strumento" di utilizzo comune e quotidiano, tanto che (quasi) tutti siamo in qualche modo utenti di servizi informatici. La valenza dell'informatica in termini socio-economici ha scalato in pochi anni la piramide di Anthony, passando da operativa (in sostituzione o a supporto di compiti semplici e ripetitivi), a tattica (a supporto della pianificazione o gestione di breve termine), a strategica. In tale ambito l'informatica è diventata talmente strategica nello sviluppo economico e sociale delle popolazioni che il non poterla sfruttare, uno status ribattezzato con l'espressione divario digitale, è un problema di interesse planetario. Assieme all'elettronica e alle telecomunicazioni unificate insieme sotto la denominazione Tecnologie dell'informazione e della comunicazione (TIC), rappresenta quella disciplina e allo stesso tempo quel settore economico che ha dato vita e sviluppo alla terza rivoluzione industriale attraverso quella che è comunemente nota come rivoluzione digitale. L'informatica si evolve soprattutto nel campo della telefonia.
Con base di dati (o banca dati, a volte abbreviato con la sigla DB dall'inglese database) in informatica si indica un insieme di dati strutturati ovvero omogeneo per contenuti e formato, memorizzati in un computer, rappresentando di fatto la versione digitale di un archivio dati o schedario.
La rivoluzione digitale è il passaggio dalla tecnologia meccanica ed elettronica analogica a quella elettronica digitale che, iniziato nei paesi industrializzati del mondo durante i tardi anni Cinquanta con l'adozione e la proliferazione di computer e memorie digitali, è proseguito fino ai giorni nostri in varie fasi storiche, all'interno della cosiddetta terza e quarta rivoluzione industriale. Si fa riferimento a questo periodo di cambiamento e di sviluppo tecnologico anche con l'espressione rivoluzione informatica, per indicare gli ampi cambiamenti socio-economici apportati dalle Tecnologie dell'Informazione e della Comunicazione (TIC, o in inglese ICT). Grazie allo sviluppo di dispositivi interattivi, World Wide Web, digitale terrestre e smartphone, si è assistito alla proliferazione e alla moltiplicazione dei canali d'accesso all'informazione, che hanno cambiato le modalità in cui avviene l'atto comunicativo. Con era digitale o era dell'informazione, si intende dunque la fase storica caratterizzata dall'ampia diffusione che hanno avuto i vari prodotti digitali e tutta quella serie di cambiamenti sociali, economici e politici avvenuti in merito all'avvento della digitalizzazione di gran parte degli accessi all'informazione e che hanno portato all'attuale società dell'informazione.
Definizioni specifiche possono essere date focalizzandosi o sui processi interni di ragionamento o sul comportamento esterno del sistema intelligente e utilizzando come misura di efficacia o la somiglianza con il comportamento umano o con un comportamento ideale, detto razionale: Agire umanamente: il risultato dell’operazione compiuta dal sistema intelligente non è distinguibile da quella svolta da un umano. Pensare umanamente: il processo che porta il sistema intelligente a risolvere un problema ricalca quello umano. Questo approccio è associato alle scienze cognitive. Pensare razionalmente: il processo che porta il sistema intelligente a risolvere un problema è un procedimento formale che si rifà alla logica. Agire razionalmente: il processo che porta il sistema intelligente a risolvere il problema è quello che gli permette di ottenere il miglior risultato atteso date le informazioni a disposizione.L'intelligenza artificiale è una disciplina dibattuta tra scienziati e filosofi poiché manifesta aspetti etici oltre che teorici e pratici. Stephen Hawking nel 2014 ha messo in guardia riguardo ai pericoli dell'intelligenza artificiale, considerandola una minaccia per la sopravvivenza dell'umanità. Il 2 agosto dello stesso anno anche Elon Musk ha twittato: «Dobbiamo essere super attenti all'intelligenza artificiale. Potenzialmente più pericolosa del nucleare.»
Alcune catalogazioni sono state accorpate perché sembrano descrivere la stessa edizione. Per visualizzare i dettagli di ciascuna, clicca sul numero di record
Record aggiornato il: 2024-04-27T01:25:39.915Z