Cosa studia l'IT?
il informatica È una scienza moderna che studia metodi, processi e tecniche per elaborare, trasmettere o archiviare i dati in modo digitale.
Con il grande progresso della tecnologia della seconda metà del 20 ° secolo, questa disciplina stava acquisendo importanza nelle attività produttive, aumentando allo stesso tempo la sua specificità.
Lo sviluppo di computer, circuiti chiusi, robot, macchinari, telefoni cellulari e l'emergere di Internet, rendono l'informatica una delle scienze più esplosive degli ultimi decenni.
L'etimologia della parola computer ha diverse origini possibili. Principalmente è venuto come un acronimo per le parole di informazione e automatique (informazioni automatiche).
Nel 1957 fu Karl Steinbuch, che ha incluso questo termine in un documento chiamato Informazioni: Automatische Informationsverarbeitung.
Mentre nel 1962, l'ingegnere francese Philippe Dreyfus nominò la sua società come Société d'Informatique Appliquée. Tuttavia, è stato il russo Alexander Ivanovich Mikhailov che per primo ha usato questo termine come "studio, organizzazione e diffusione di informazioni scientifiche".
Tra il suo vasto campo di applicazione, questa scienza è dedicata allo studio del trattamento automatico delle informazioni tramite dispositivi elettronici e sistemi informatici, che possono essere utilizzati per scopi diversi.
Cosa studia l'IT? applicazioni
Il campo di applicazione dell'informatica stava espandendo il suo spettro con lo sviluppo tecnologico nell'ultimo mezzo secolo, principalmente dall'impulso dei computer e di Internet.
Tra i suoi compiti principali figurano progettazione, sviluppo, pianificazione a circuito chiuso, preparazione dei documenti, monitoraggio e controllo dei processi.
È anche responsabile della creazione di robot industriali, nonché delle attività relative al vasto campo delle telecomunicazioni e alla realizzazione di giochi, applicazioni e strumenti per dispositivi mobili.
Formazione di tecnologia dell'informazione
L'informatica è una scienza in cui convergono conoscenza e conoscenza di discipline diverse, a partire dalla matematica e dalla fisica, ma anche dall'informatica, dalla programmazione e dal design, tra gli altri.
Questa unione sinergica tra diversi rami della conoscenza è integrata in informatica con le nozioni di hardware, software, telecomunicazioni, internet ed elettronica.
storia
La storia dell'informatica è iniziata molto prima della disciplina che porta il suo nome. Ha accompagnato l'umanità quasi dalle sue origini, sebbene senza essere riconosciuta come una scienza.
Dalla creazione dell'abaco cinese, registrato nell'anno 3000 aC e considerato il primo dispositivo di calcolo dell'umanità, possiamo parlare di informatica.
Questa tabella è divisa in colonne, consentite attraverso i movimenti delle loro unità per eseguire operazioni matematiche come addizione e sottrazione. Potrebbe esserci il punto di partenza di questa scienza.
Ma l'evoluzione dell'informatica era appena iniziata con l'abaco. Nel diciassettesimo secolo, Blaise Pascal, uno dei più famosi scienziati francesi del suo tempo, creò la calcolatrice e fece compiere un ulteriore passo evolutivo.
Questo dispositivo serviva solo per addizioni e sottrazioni ma era la base per il Leibniz tedesco, circa 100 anni dopo, nel XVIII secolo, sviluppò un apparato simile ma con moltiplicazioni e divisioni.
Queste tre creazioni sono state i primi processi informatici che sono stati registrati. È stato necessario attendere quasi 200 anni in più affinché questa disciplina diventi rilevante e diventi una scienza.
Nei primi decenni del 20 ° secolo, lo sviluppo dell'elettronica è stato l'impulso finale del computing moderno. Da lì, questo ramo della scienza inizia a risolvere i problemi tecnici derivanti dalle nuove tecnologie.
A quel tempo c'era un passaggio dai sistemi basati su ingranaggi e barre ai nuovi processi di impulsi elettrici, catalogati da un 1 quando la corrente passa e da uno 0 quando no, che ha rivoluzionato questa disciplina.
L'ultimo passo è stato compiuto durante la seconda guerra mondiale con la realizzazione del primo computer, il Mark I, che ha aperto un nuovo campo di sviluppo che è ancora in espansione.
Nozioni di base di informatica
La tecnologia dell'informazione, intesa come l'elaborazione automatica delle informazioni attraverso dispositivi elettronici e sistemi informatici, deve avere alcune capacità da sviluppare.
Tre operazioni fondamentali sono fondamentali: entrata, che si riferisce alla raccolta di informazioni; l'elaborazione di quella stessa informazione e dell'output, che è la possibilità di trasmettere i risultati.
L'insieme di queste capacità di dispositivi elettronici e sistemi informatici è noto come un algoritmo, che è l'insieme ordinato di operazioni sistematiche per eseguire un calcolo e trovare una soluzione.
Attraverso questi processi, il computer ha sviluppato vari tipi di dispositivi che hanno iniziato a facilitare i compiti dell'umanità in tutti i tipi di attività.
Sebbene la sua area di applicazione non abbia limiti rigorosi, è utilizzata principalmente nei processi industriali, nella gestione aziendale, nell'archiviazione delle informazioni, nel controllo dei processi, nelle comunicazioni, nei trasporti, nella medicina e nell'istruzione.
generazioni
Nell'ambito dell'informatica e dell'informatica, possiamo parlare di cinque generazioni di processori che hanno segnato la storia moderna dalla sua comparsa nel 1940 ad oggi.
Prima generazione
La prima generazione ha avuto il suo sviluppo tra il 1940 e il 1952, quando i computer sono stati costruiti e gestiti con valvole. La sua evoluzione e utilità era principalmente in un ambiente scientifico-militare.
Questi dispositivi avevano circuiti meccanici, i cui valori erano modificati per essere programmati secondo gli scopi necessari.
Seconda generazione
La seconda generazione fu sviluppata tra il 1952 e il 1964, con la comparsa di transistor che sostituirono le vecchie valvole. È così che sono emersi dispositivi commerciali che hanno goduto di una programmazione precedente.
Un altro aspetto centrale di questa fase è la comparsa dei primi codici e linguaggi di programmazione, Cobol e Fortran. A quelli che anni dopo furono seguiti da nuovi.
Terza generazione
La terza generazione ebbe un periodo di sviluppo un po 'più breve di quella dei suoi predecessori, fu estesa tra il 1964 e il 1971 quando apparvero i circuiti integrati.
La riduzione dei costi nella produzione dei dispositivi, l'aumento della capacità di stoccaggio e la riduzione delle dimensioni fisiche hanno segnato questa fase.
Inoltre, grazie allo sviluppo dei linguaggi di programmazione, che hanno acquisito specificità e attitudini, i primi programmi utilitaristici hanno iniziato a prosperare.
Quarta generazione
La quarta generazione fu prodotta dal 1971 e durò un decennio, fino al 1981, con componenti elettronici come i principali protagonisti dell'evoluzione.
Così i primi microprocessori cominciarono ad apparire nel mondo dei computer, che includeva tutti gli elementi di base del vecchio computer in un singolo circuito integrato.
Quinta generazione
Infine, la quinta generazione è iniziata nel 1981 e si estende al presente, in cui la tecnologia invade tutti gli aspetti delle società moderne.
Lo sviluppo principale di questa fase evolutiva dell'informatica furono i personal computer (PC), che presto portarono a un vasto gruppo di tecnologie associate che oggi governano il mondo.
riferimenti
- informareAttica, informazione e comunicazione, Documentazione sociale: Journal of Social Studies and Applied Technology ', 1999.
- Trattamento (automatico) di informazioni, Diego Dikygs, sito digitale Notions of Computing, 2011.
- Storia del calcolon, Patricio Villalva.
- rivista Horizonte Inform MagazineáEtica educativa, Buenos Aires, 1999.