Categorie
Computer Database Foto Mondo Oggetti Panorama Parlare con Kratos Parlare con Pandora Presentazione Racconto Storia

Spiego a Kratos e Pandora la Scheda di Rete

Dopo aver detto a Kratos e Pandora tutto sulla Scheda Audio , io dissi a loro – adesso vi spiego tutto sulla Scheda di Rete e Pandora disse – comincia quando vuoi . Dopo pochi minuti gli dissi tutto sulla Scheda di Rete – La scheda di rete è un’interfaccia digitale che viene inserita solitamente all’interno di un Personal Computer, Server, Stampante, Router ecc., che svolge tutte le elaborazioni o funzioni necessarie a consentire la connessione ad una rete informatica.

 

Altri nomi per questa interfaccia possono essere:

 NIC (Network Interface Controller)

 Scheda LAN (Local Area Network)

 

Esistono diverse tecnologie di rete. Tra le più diffuse:

 Ethernet

 Token ring

 Wi-Fi

 Produttori di schede di rete

 3Com

 Broadcom

 D-Link

 Intel

 Novell

 Realtek

Categorie
Computer Database Foto Mondo Oggetti Panorama Parlare con Kratos Parlare con Pandora Presentazione Racconto Storia

Spiego a Kratos e Pandora la Scheda Video

Dopo aver detto a Kratos e Pandora tutto sulla Scheda video , io dissi sia a Kratos sia a Pandora – adesso vi spiego tutto sulla Scheda Audio e Pandora disse – comincia quando vuoi . Dopo pochi minuti gli dissi tutto sulla Scheda Audio  – In elettronica una scheda audio è una scheda di espansione di un computer che si occupa di trasformare un flusso audio digitale in un segnale analogico (o anche digitale nelle configurazioni più recenti) per essere poi riprodotto da un set di altoparlanti. La maggior parte delle schede audio attuali è anche in grado di ricevere input (da microfoni o strumenti musicali) che invia all’unità di elaborazione centrale.

 

Caratteristiche generali

 

Una scheda audio tipica include un chip sonoro solitamente equipaggiato con un convertitore digitale-analogico che converte onde sonore registrate o generate in digitale in un segnale analogico. Questo segnale è indirizzato a un connettore al quale può essere connesso un amplificatore o un’apparecchiatura simile.

 

Le architetture più avanzate solitamente includono più di un chip sonoro, e dividono fra sintetizzatore di suoni (solitamente usato per generare suoni in tempo reale con poco uso della CPU) e riproduzione digitale di suoni.

 

Le schede audio più avanzate (come ad esempio le X-Fi di Creative Labs) possiedono anche un processore (CPU) proprio per migliorare l’elaborazione del suono.

 

Nei PC di fascia medio-bassa la scheda audio è di solito integrata in un chip della scheda madre, per contenere i costi e i consumi. Queste schede audio, pur non avendo funzionalità di elaborazione avanzate, sono in grado di riprodurre suoni ad alta qualità e dispongono di uscite per sistemi di altoparlanti surround fino a 9.1.

 

Connessioni

 

La maggior parte delle schede audio in commercio (integrate o no) a partire dal 1999 segue lo standard Microsoft PC 99 per la colorazione delle uscite:Colore Funzione

 Rosa Entrata analogica per il microfono.

 Azzurro Entrata analogica. (per mixer o altro dispositivo digitale o analogico tramite RCA/jack)

 Verde Uscita stereo principale (per cuffie o altoparlanti frontali).

 Nero Uscita per gli altoparlanti posteriori (nei sistemi surround).

 Argento Uscita per gli altoparlanti laterali (nei sistemi surround).

 Arancione Uscita digitale S/PDIF (a volte utilizzata come uscita analogica per subwoofer).

 

Canali e polifonia

 

Due importanti caratteristiche di una scheda audio sono:

 la sua polifonia, ovvero il numero di suoni e voci distinti che possono essere riprodotti indipendentemente e simultaneamente;

 il numero di canali, intesi come segnali audio elettrici distinti, corrispondenti alla configurazione degli altoparlanti, come 1 (mono), 2.0 (stereo), 2.1(stereo e subwoofer), 5.1 ecc.

 

Spesso i termini vengono utilizzati entrambi per indicare il grado di polifonia, non la configurazione delle uscite.

 

Le schede più datate avevano una polifonia di 3 voci, ma un solo canale audio in cui venivano mixate le voci.

 

Per diversi anni, le schede per PC avevano da 9 a 18 voci, per lo più usate per la riproduzione di musica MIDI, ma solo una (mono) o due (stereo) voci e canali per la riproduzione di suoni digitali. Quando dovevano essere riprodotti due o più suoni, essi erano mixati a livello software. Gran parte delle schede audio integrate ed economiche, pur avendo diversi canali audio (5.1, 7.1), non hanno nessuna polifonia a livello hardware.

 

Oggi, una scheda che fornisce una polifonia hardware viene definita un “acceleratore audio” e include funzioni avanzate per il calcolo del suono 3D o effetti DSP in tempo reale.

 

Storia

 

La prima scheda audio è stata la AdLib con chipset Yamaha. Clonando questa scheda venne creata la Sound Blaster con chipset Philips e poi la prima scheda audio a 16-bit. Infine vennero create schede a 24-bit.

Categorie
Computer Database Foto Mondo Oggetti Panorama Presentazione Storia

Foto della Scheda Video visto da Kratos e Pandora

Categorie
Computer Database Foto Mondo Oggetti Panorama Parlare con Kratos Parlare con Pandora Presentazione Racconto Storia

Spiego a Kratos e Pandora la Scheda Video

Dopo aver detto a Kratos e Pandora tutto sul Software , io dissi sia a Kratos sia a Pandora tutto sulla Scheda Video e Pandora disse – comincia quando vuoi . Dopo pochi minuti gli dissi tutto sulla Scheda Video – In informatica ed elettronica una scheda video è un componente hardware del computer che ha lo scopo di generare un segnale elettrico (output) che possa essere poi mostrato a video (display) ovvero trasdotto da quest’ultimo in segnale ottico visivo per l’utente. A seconda del tipo di computer questo dispositivo può essere più o meno potente: i primi modelli di scheda video potevano visualizzare solo testo; successivamente si sono diffuse anche schede video in grado di mostrare output grafici (immagini non testuali) e, recentemente, anche modelli tridimensionali texturizzati in movimento e in tempo reale. Questi ultimi tipi di scheda provvedono anche ad elaborare e modificare l’immagine nella propria memoria interna, mentre le schede 2D possono mostrare immagini 3D solo con l’aiuto della CPU che deve eseguire da sola tutti i calcoli necessari.

 

Tipologia e architettura delle schede video

 

Una tipica scheda video contiene un integrato grafico (o più di uno) che gestisce una certa quantità di RAM dedicata a memorizzare i dati grafici da visualizzare e che risiede fisicamente sulla scheda stessa. Le schede video costruite per i PC IBM e compatibili contengono anche una ROM con un driver molto semplice (chiamato firmware che è aggiornabile nelle moderne schede video), usato dal BIOS per il bootstrap.

 

Il funzionamento di una scheda video è, in linea di massima, molto semplice: ogni locazione di RAM grafica contiene il colore di un pixel dello schermo, o di un carattere se la scheda sta visualizzando solo testo: il chip grafico si limita a leggere in sequenza le locazioni necessarie (se sta lavorando in modo testo, ogni locazione viene elaborata da un generatore di caratteri) e a pilotare un convertitore digitale-analogico, detto RAMDAC, che genera il segnale video che sarà visualizzato dal monitor. Dalla quantità di RAM grafica equipaggiata nella scheda e dalla velocità (frequenza) massima del suo RAMDAC dipendono la risoluzione massima raggiungibile e il numero di colori contemporaneamente visibili.

 

Tutte le schede video possono visualizzare anche grafica tridimensionale (al limite anche quelle con sola modalità testo, se si accetta una rappresentazione ASCII art), ma senza funzioni apposite di accelerazione. L’intero lavoro di calcolo deve essere svolto, pixel per pixel, dalla CPU principale del computer, che viene spesso completamente assorbita da questo compito: una scheda grafica non tridimensionale si limita in pratica a visualizzare una serie di immagini bidimensionali che le vengono inviate dal sistema.

 

Modo testo

 

Tutte le schede video dispongono almeno del modo di funzionamento detto modalità testo o a caratteri: in questa modalità lo schermo del computer è organizzato come una griglia di caselle rettangolari in ciascuna delle quali viene scritto un carattere tipografico, di stile prefissato da un generatore di caratteri interno alla scheda (generalmente una sezione del chip video che si occupa di leggere la descrizione dei vari caratteri richiesti dalla ROM o da una parte della RAM video). Per esempio, nei PC IBM originali il modo testo era di 80 colonne per 25 righe. Una parte della RAM della scheda viene poi usata per memorizzare il codice (in genere in codice ASCII) di un carattere tipografico.

 

In questa modalità, per far comparire sullo schermo la scritta “scheda video” è sufficiente che il calcolatore scriva i dodici codici ASCII delle lettere componenti (115, 99, 104, 101, 100, 97, 32, 118, 105, 100, 101, 111) in dodici locazioni della memoria RAM della scheda video: sarà poi il generatore di caratteri del chip grafico a tradurre i codici in serie di pixel e fare tutto il resto.

 

Modalità grafica

 

Quasi tutte le schede video (con pochissime eccezioni) possono poi operare anche in modalità grafica, vale a dire senza avvalersi del generatore di caratteri interno ma specificando l’immagine pixel per pixel. In questa modalità il colore di ogni pixel è specificato singolarmente, in genere usando una o più locazioni di memoria video. Questa modalità ha bisogno di molta più memoria RAM del modo testo: una schermata in modo testo occupa generalmente da 2 a 6 KB di RAM video, mentre in modalità grafica, a seconda della risoluzione in pixel e della quantità di colori usati contemporaneamente serve da 10 a 10000 volte tanto. Il modo di rappresentare del singolo pixel in memoria video varia molto a seconda del tipo di approccio usato dal costruttore e dalla particolare modalità grafica: in genere però si adotta una corrispondenza di tipo bitmap, cioè a mappa di bit.

 

Schede video con accelerazione 2D

 

Già da un po’ di tempo il chip grafico è in grado di eseguire alcune funzioni grafiche in modo autonomo, senza che il processore principale debba intervenire: le schede grafiche con questi chip sono dette 2D accelerate, perché possono svolgere da sole una parte del lavoro di disegno che altrimenti spetterebbe al processore. Le operazioni più comuni da implementare in hardware sono il tracciamento di linee, di archi e di forme geometriche semplici (rettangoli, poligoni, cerchi, ellissi) e il bit blitting, cioè lo spostamento da una parte all’altra dell’immagine di blocchi di pixel. È in genere presente anche un generatore di caratteri evoluto, capace di funzionare anche in modalità grafica e di visualizzare contemporaneamente caratteri di molti font e grandezze diverse.

 

Schede video con accelerazione 3D

 

Le schede video con capacità grafiche tridimensionali (o 3D accelerate) hanno le stesse capacità bidimensionali delle precedenti, e in più ne hanno una completamente nuova, la modalità 3D appunto, in cui i pixel dell’immagine da visualizzare vengono calcolati dalla GPU (Graphics Processing Unit), fotogramma per fotogramma, partendo da una serie di dati geometrici forniti dalla CPU.

 

In questa modalità, la RAM video contiene una serie di sottoimmagini, le texture. Ciascuna di queste viene associata ad una particolare superficie bidimensionale di un modello tridimensionale di cui ne costituisce la “pelle”: volendo, si possono considerare le varie texture come delle carte da parati elettroniche. Per ogni fotogramma (frame) da visualizzare in modalità 3D, la scheda video riceve dal processore una serie di punti geometrici (vertici) che specificano delle superfici in uno spazio tridimensionale con l’indicazione di quali texture applicare alle varie superfici: la GPU si occupa di calcolare, a partire dai dati ricevuti, se la particolare superficie sia visibile o no, e, se visibile, la sua forma in due dimensioni (coordinate schermo); poi si occupa di applicare la (o le) texture indicate. Il valore di ogni pixel viene quindi calcolato a partire da quali e quanti texel (i pixel delle texture) sono contenuti in esso.

 

Per fare tutto questo, le schede video 3D accelerate sono equipaggiate con una grande quantità di RAM, e ricorrono in modo massiccio al calcolo parallelo: l’integrato principale è un vero e proprio processore e viene detto GPU (anche programmabile a piacere, a partire dalla serie 6800GT di Nvidia), composto internamente di una serie di unità identiche (dette pipeline) operanti in parallelo, ciascuna su una diversa serie di pixel alla volta; poiché in grafica non vale il principio di località non è possibile usare una memoria cache come nella CPU principale, e la comunicazione con la RAM grafica deve essere estremamente veloce: questo rende necessario adottare sia una frequenza di lavoro della RAM grafica molto più alta di quella della memoria principale, sia l’adozione di bus RAM-GPU molto ampi (128, 256 bit o anche 512 bit). Per lo stesso motivo, far funzionare la GPU a frequenze molto più elevate della RAM grafica, adottando un moltiplicatore di frequenza come per la CPU principale, non porterebbe nessun beneficio prestazionale.

 

Ulteriori funzioni di accelerazione, utili per aumentare il livello di realismo delle immagini calcolate, sono il calcolo in hardware delle luci incidenti (Transform and Lighting o T&L), i pixel shader, il vertex shader e il rendering (rasterizzazione), il filtro anisotropico e il filtro antialiasing.

 

Con questa nuova architettura le schede video 3D accelerate sollevano la CPU da tutti i calcoli necessari alla visualizzazione, lasciandole solo il compito di aggiornare la geometria dell’immagine (calcolo di spigoli e vertici, di rotazioni, intersezioni, animazioni ecc.).

 

Le prime schede video accelerate 3D destinate al grande pubblico (prima di allora erano molto costose e riservate a professionisti) sono state le famose Voodoo della 3dfx, la prima industria a produrre schede video con capacità 3D a prezzi popolari, assorbita nel 2001 dalla concorrente Nvidia.

 

Uscite video

 

Le connessioni più diffuse tra la scheda video e il monitor (o televisore) sono:

 Video Graphics Array (VGA): standard analogico introdotto nel 1987 e progettato per monitor CRT, ma utilizzato, per compatibilità, anche da diversi monitor LCD, assieme all’interfaccia DVI; ha diversi problemi, come il rumore elettrico, la distorsione dell’immagine e alcuni errori nella valutazione dei pixel.

 Digital Visual Interface (DVI): introdotto nei monitor LCD, viene usato anche da TV al plasma e videoproiettori. Risolve i problemi del SVGA facendo corrispondere a ogni pixel dell’output un pixel dello schermo, in quanto ne riconosce la risoluzione nativa.

 S-Video: utilizzato per la connessione a TV, lettori DVD, proiettori e videoregistratori.

 High-Definition Multimedia Interface (HDMI): rilasciato nel 2003, questo standard, che supporta le risoluzioni ad alta definizione, ha come obiettivo la sostituzione di tutti gli altri standard.

 DisplayPort: rilasciato nel 2006, si presenta come concorrente dell HDMI. È usato sia per connessioni con monitor che con sistemi home theatre.

 

Altre uscite video (ormai obsolete) sono:

 Video composito: uscita analogica con risoluzione molto bassa, che fa uso di un connettore RCA

 Video a componenti: ha tre cavi, ognuno con un connettore RCA, utilizzato per i proiettori.

 

Interfaccia di connessione con la scheda madre

 

In ordine cronologico, i sistemi di connessione con la scheda madre sono stati:

 ISA: rilasciata nel 1981 da IBM ed utilizzata negli anni ’80

 MCA: rilasciata, sempre da IBM nel 1987, incompatibile con le schede madri precedenti

 EISA: rilasciata nel 1988 per competere con IBM, retrocompatibile

 VESA: estensione dell’ISA

 PCI: questo standard ha sostituito le altre interfacce nel 1993. Il PCI permette una connettività dinamica delle periferiche e non richiede l’utilizzo di jumper per la configurazione.

 AGP: prima interfaccia dedicata esclusivamente alle schede grafiche, introdotta nel 1997 in seguito alla crescita del mercato di schede video con accelerazione 3D. È diventata l’interfaccia standard per le schede video per i numerosi vantaggi che presentava ed è stata più volte migliorata (AGP 2x, 4x, 8x)

 PCI Express: evoluzione del bus PCI rilasciata nel 2004 che sta sostituendo l’AGP come interfaccia di connessione delle schede grafiche in quanto offre una larghezza di banda maggiore e maggiore potenza erogata.

 

Sono state rilasciate , nel gennaio 2007, le specifiche PCI Express 2.0, che incrementa le prestazioni del PCI Express in termini di larghezza di banda e potenza erogata, per sopperire alle richieste sempre maggiori delle schede video. Il primo chipset a supportarle fu l’X38 di Intel, rilasciato nel 2007.

 

Bus Ampiezza (bits) Frequenza Clock (MHz) Larghezza di banda (MB/s) Trasferimento

 ISA XT 8 4,77 8 parallelo

 ISA AT 16 8,33 16 parallelo

 MCA 32 10 20 parallelo

 EISA 32 8,33 32 parallelo

 VESA 32 40 160 parallelo

 PCI 32 – 64 33 – 100 132 – 800 parallelo

 AGP 1x 32 66 264 parallelo

 AGP 2x 32 133 528 parallelo

 AGP 4x 32 266 1000 parallelo

 AGP 8x 32 533 2000 parallelo

 PCIe x1 1*32 25 / 50 100 / 200 seriale

 PCIe x4 1*32 25 / 50 400 / 800 seriale

 PCIe x8 1*32 25 / 50 800 / 1600 seriale

 PCIe x16 1*32 25 / 50 1600 / 3200 seriale

 PCIe x16 2.0 1*32 50 / 100 3200 / 6400 seriale.

 

Tipologia di collegamento alla scheda madre

 

Le schede video possono essere collegate in diverso modo alla scheda madre

 Integrate, la scheda video è ricavata direttamente sulla scheda madre, questa soluzione viene utilizzata sulle console e su alcuni PC, per quest’ultimi, si può avere o no la possibilità di utilizzare una scheda video esterna

 PCI, porta parallela

 AGP, porta parallela

 PCI Express, porta seriale

 

Combinazioni di schede video

 

Soluzione Nvidia (SLI)

 

Il concetto che è dietro la sigla “SLI” (Scalable Link Interface), nome ricalcato dalla tecnologia di calcolo parallelo delle Voodoo 2 di 3dfx, è l’aumento della potenza elaborativa della parte grafica sistema tramite l’accoppiamento di due, tre o quattro schede video identiche tramite un determinato chipset nForce ed una determinata predisposizione della scheda madre.

 

Questa tecnologia permette a due (ora anche a tre e a quattro grazie a sistemi molto complessi denominati “3-way SLI” (disponibile dalle GPU 8800GTX e Ultra) e “Quad SLI” (solo per 7950X2, 9800GX2 e GTX295)) schede video di comunicare e suddividere i calcoli per l’elaborazione video a patto che esse siano identiche. Oltre alle due schede video bisogna possedere una scheda madre che supporti due o più socket PCI-Express, mediamente più costosa delle controparti con un solo socket; per collegare le due schede NVidia offre in dotazione un “ponte elettrico” (un piccolo cavo rigido) che collega le due schede sulla loro parte superiore tramite due appositi connettori.

 

Le due schede si dividono così il lavoro: ognuna elabora i dati di una metà dello schermo (suddiviso in varie maniere, o metà e metà oppure anche a “scacchiera” rendendo la suddivisione più uniforme) per poi unire i dati mandandoli al monitor.

 

Recentemente sono stati presentati da NVidia sistemi basati su soluzioni Quad-SLI ovvero sistemi che utilizzano due schede video in modalita SLI ma ognuna di queste schede utilizza a sua volta 2 unità di elaborazione. Sistemi di questo genere hanno tuttavia costi proibitivi per l’utente medio.

 

Soluzione ATI (CrossFire)

 

Nel 1999 ATI introdusse la sua prima soluzione a doppio processore grafico che non ebbe molto successo: la Rage Fury MAXX. A pochi anni di distanza e con l’avvento del modello SLI di NVidia l’azienda Canadese risponde con un proprio metodo di accoppiamento di schede video: il CrossFire.

 

Per funzionare un sistema CrossFire necessita di una scheda madre con un chipset compatibile e due slot PCI-Express per inserire fisicamente le due schede. Diversamente però dal sistema SLI della concorrente NVidia non esiste la limitazione di possedere due schede video identiche ma basta che una delle due in possesso sia una scheda certificata CrossFire di tipo Master, ovvero una scheda video abilitata per questa tecnologia che possieda sul proprio Process control block un chip denominato Compositing Engine che, a seconda della potenza dell’altra scheda collegata al sistema e denominata Slave, distribuisca la mole dei calcoli in maniera equilibrata rendendo così tutte le schede compatibili. Per collegare le due schede, ATI utilizzava un cavo esterno (nVidia, al contrario, usa un ponte interno tra le schede) che collega due uscite DVI delle due schede e presenta un terzo connettore che va collegato al monitor.

 

Industrie costruttrici

 Maggiori produttori

 Intel produce soluzioni integrate nelle quali la GPU è integrata nel chipset direttamente sulla scheda madre esse presentano prestazioni moderate e basso costo.

 ATI Technologies con le serie gaming Radeon, Radeon X, Radeon HD e le serie professionali FireGL e FirePro

 nVidia Corporation con le serie gaming GeForce, GeForce FX e la serie professionali Quadro e Tesla

 

Recentemente anche ATI e nVidia hanno iniziato la commercializzazione di chipset dotati di scheda grafica integrata, particolarmente indicata dove non è richiesta particolare potenza di elaborazione, mentre è maggiormente importante il risparmio energetico.

 

Nel segmento delle schede grafiche discrete (la scheda video è una scheda a sé da connettere alla scheda madre), invece, ATI e nVidia producono le GPU e definiscono l’architettura della scheda, che però viene assemblata e commercializzata da produttori partner, che possono applicare variazioni al sistema di raffreddamento, alle frequenze di funzionamento, all’alimentazione e alle dimensioni.

 

Nella tabella sono elencati i principali partner rispettivamente di ATI e nVidia: Produttori di GPU

 NVIDIA ATI

 Produttori di schede video POINT OF VIEW MSI eVGA GECUBE XFX

 GALAXY OCZ FOXCONN JETWAY MUSHKIN

 ASUS SPARKLE ZOTAC SAPPHIRE GIGABYTE

 GIGABYTE PALIT PNY ASUS MSI

 BFG GAINWARD ‘ eVGA ‘

 

Quote di mercato

 

A Luglio 2010 Intel, con una percentuale del 54,3%, è il primo produttore di schede grafiche per personal computer. Intel produce soluzioni integrate, la scheda grafica è integrata con altri componenti direttamente nella scheda madre del computer e questo permette di ridurre i costi ma deprime anche le prestazioni, i prodotti Intel sono prodotti destinati a sistemi economici o che puntano al massimo risparmio energetico. Il secondo produttore è AMD, proprietaria della società ATI Technologies, con una quota di mercato del 24,5%. NVIDIA è invece slittata al terzo posto con il 19,8% del mercato. Seguono (per un totale dell’1,4% del mercato) i produttori VIA Technologies e SIS. L’ultimo produttore, in termini di vendite, è Matrox che sviluppa schede grafiche per applicazioni professionali.

 Produttori di schede professionali

 ATI con la serie FireGL ora FirePro

 nVidia con la serie Quadro

 Matrox con le serie Parhelia e P-series

 3Dlabs con la serie Wildcat

 Elsa con la serie Gloria

 Produttori minori

 Ex produttori

 

Tra parentesi il periodo di attività nella produzione di chipset grafici originali per il segmento personal computer. Dove assente la voce collegata è presente una breve descrizione.

 3dfx (1994-2000)

 Ark Logic

 ArtX – acquisita da ATI Technologies

 Chips and Technologies – acquisita da Intel

 Cirrus Logic

 Chromatic Research – acquisita da ATI Technologies

 Hercules Computer Technology (1982-1998)

 MOS Technology – conosciuta anche come Commodore Semiconductor Group produce i chip grafici della serie TED e VIC (e la gran parte degli altri chip comprese le CPU compatibili con quelle Motorola) montati sui molti computer Commodore: dal Commodore VIC-20 al Commodore 64, dal Commodore 16 al Commodore Plus/4 e il Commodore 128.

 Number Nine Visual Technology – acquisita da S3 Graphics

 Oak Technology (1988-1997)

 Dal 1987 al 2003 (fino alla acquisizione da parte di Zoran Corporation, produttrice di DSP audio-video) Oak produce principalmente microchip per hard disk e drive magneto-ottici. Produce anche chipset grafici compatibili CGA, EGA, VGA, SVGA a basso costo, stabili ma di basse prestazioni, dal 1988 al 1997, quando dismette la divisione grafica. L’ultima realizzazione è il Warp 5 – OTI 64317, un chip 2D/3D presentato (ma mai commercializzato) all’E3 di Atlanta nel 1997.

 PowerVR (1996-1998/2001-2002)

 OPTi

 Raycer – acquisita da Apple Computer

 Real3D – acquisita da Intel

 Rendition (1996-1998)

 Trident Microsystem

 Tseng Labs – vende la divisione grafica a ATI Technologies nel 1997

 Video 7

 Weitek (1991-1995)

Categorie
Computer Database Foto Mondo Oggetti Panorama Parlare con Kratos Parlare con Pandora Presentazione Racconto Storia

Spiego a Kratos e Pandora il Software

Dopo aver detto sia a Kratos sia a Pandora tutto sul lettore Dvd , io dissi sia a Kratos sia a Pandora – adesso vi spiego tutto sul Software e Pandora disse – comincia quando vuoi . Dopo pochi minuti gli dissi tutto sul Software – Il software è un programma o un insieme di programmi in grado di funzionare su un computer o qualsiasi altro apparato con capacità di elaborazione (smartphone, console, navigatori satellitari e così via).

 

Il termine è un vocabolo della lingua inglese costituito dall’unione di due parole, soft (morbido) e ware (manufatto, componente, oggetto, cosa). Il termine si contrappone tradizionalmente a hardware (la componente fisica di un sistema di calcolo). Nel tempo sono entrati nell’uso altri termini che descrivono elementi di un computer, come il firmware. Il suffisso -ware viene usato anche in altri termini che indicano particolari tipi di programmi: in funzione del ruolo che hanno in un sistema di calcolo (per esempio middleware); del tipo di licenza con cui sono distribuiti (freeware, shareware); e altro.

 

Storia del software

 

Il termine software ha origine durante la seconda guerra mondiale. I tecnici dell’esercito inglese erano impegnati nella decrittazione dei codici tedeschi di Enigma, di cui già conoscevano la meccanica interna (detta hardware, componente dura, nel senso di ferraglia) grazie ai servizi segreti polacchi. La prima versione di Enigma sfruttava tre rotori per mescolare le lettere.

 

Dopo il 1941, ad Enigma venne aggiunto un rotore, e il team di criptanalisti inglesi, capitanati da Alan Turing, si dovette interessare non più alla sua struttura fisica, ma alle posizioni in cui venivano utilizzati i rotori della nuova Enigma.

 

Dato che queste istruzioni erano scritte su pagine solubili nell’acqua (per poter essere più facilmente distrutte, evitando in tal modo che cadessero nelle mani del nemico) furono chiamate software (componente tenera), in contrapposizione all’hardware.

 

Il senso moderno del termine deriva dalle istruzioni date ai computer, ed è stato utilizzato per la prima volta nel 1957 da John Wilder Tukey, noto statistico statunitense.

 

Dal 1950 l’analogia tra l’hardware ed il corpo umano e quella tra il software e la mente umana si è fatta molto forte, dal momento che Turing ha sostenuto che il progresso tecnologico sarebbe riuscito a creare, entro il 2000, delle macchine intelligenti (in grado cioè di “pensare” autonomamente) atte alla risoluzione dei problemi.

 

Aumento del codice e potenziamento dell’hardware

 

Alla storia dell’evoluzione del software è legato lo sviluppo dell’hardware. Come evidenziato dalla seconda legge di Moore, una minaccia alla velocità di elaborazione, oltre ai costi, proviene dal software. Infatti ciò che conta per un utente non è tanto la velocità di elaborazione del processore, quanto la velocità effettiva di elaborazione del codice, calcolata in base al tempo che occorre alla CPU per eseguire un’operazione (come la scrittura di un testo, la creazione di una cartella, ecc.).

 

Nathan Myhrvold, direttore dell’Advanced Technology Group della Microsoft, ha effettuato uno studio sui prodotti Microsoft calcolando le linee di codifica per le successive release dello stesso software:

 Basic: da 4.000 linee di codice nel 1975 a 500.000 nel 1995

 Word: da 27.000 linee di codice nel 1982 a 2.000.000 nel 2002

 

La continua aggiunta di nuove funzionalità al software esistente giustifica la costante richiesta di processori più veloci, memorie sempre più grandi e più ampie capacità di I/O (Input/Output).

 

Infatti, anche le altre tecnologie si sono evolute di pari passo:

 i dischi rigidi da 10 MB (1982) a 1 TB (2007);

 i modem analogici da 110 bit/sec a 56 kbit/sec.

 

Myhrvold traccia un parallelismo con la legge di Moore: “abbiamo aumentato la dimensione e la complessità del software ancora più rapidamente di quanto non prevedeva la legge di Moore”, “gli utenti del software hanno sempre consumato le maggiori capacità di elaborazione ad una velocità uguale o superiore a quella con cui i produttori di chip le mettevano a disposizione” (Stewart Brand, 1995)..

 

Classificazione

 

I software possono essere classificati in base a diverse loro caratteristiche:

 funzione (videoscrittura, foglio elettronico, database management system, grafica ecc.);

 grado di apertura della licenza (software libero o software proprietario);

 sistema operativo su cui possono essere utilizzati (Unix, Mac OS, Windows ecc.);

 da installare o portabile;

 tipo di interfaccia utente (testuale o grafica).

 

I software possono essere divisi in quattro categorie principali:

 software di base (che a sua volta si divide in sistemi operativi, compilatori e interpreti, librerie);

 driver;

 firmware;

 programmi applicativi (cioè tutti quei software che vengono utilizzati nel quotidiano, dai programmi per l’ufficio, ai videogiochi).

 

Realizzazione del software

 

Un software viene normalmente realizzato utilizzando uno o più linguaggi di programmazione. Se il progetto diventa complesso, è opportuno dividere il programma in uno o più moduli, che possono essere così affidati a diversi programmatori, modificati più semplicemente e riutilizzati in altri progetti.

 

La fase detta di compilazione, traduce ogni file del codice sorgente, scritto nel o nei linguaggi di programmazione, in un file oggetto contenente il programma in linguaggio macchina adeguato all’architettura hardware di destinazione. In seguito tutti i file oggetto attraversano una fase di linking per giungere al prodotto finale: il file eseguibile.

 

Alcuni software non vengono compilati in quanto le istruzioni contenute nel codice sorgente vengono eseguite utilizzando un software detto interprete.

 

La gestione del processo di sviluppo è caratterizzato dalla scelta di un modello di sviluppo del software codificato nell’ambito dell’Ingegneria del Software (Software Engineering), esistono:

 Il modello classico, o a cascata (water-fall)

 Il modello a spirale (object oriented)

 

La realizzazione del software è un’attività complessa articolata in più fasi, per questo motivo spesso il software è associato ad un prodotto ingegneristico, ma se ne differenzia soprattutto per alcune caratteristiche:

 è molto “malleabile”;

 è un prodotto human intensive (e cioè un prodotto che richiede un considerevole sforzo in risorse umane perché si concentra soprattutto sulla progettazione e sull’implementazione).

 

Licenze d’utilizzo e distribuzione

 

La licenza d’uso è un documento che accompagna il software e specifica i diritti e i doveri di chi lo riceve e di chi lo diffonde.

 

Tutte le licenze d’uso traggono il loro valore legale dalle norme sul diritto d’autore (il copyright).

 

Esistono licenze libere, le licenze Open Source e licenze proprietarie. Nasce in seguito anche l’Open content che ha come scopo quello di trasferire le licenze su opere diverse dal software.

 

Le licenze di utilizzo e distribuzione del software libere ed Open Source sono numerose, ma quelle effettivamente diffuse sono poche. Per l’89% si tratta di GPL, LGPL e BSD (licenza storica di Unix, tornata in uso dall’avvento di Linux).

 

Alcune licenze libere:

 GNU-GPL (la licenza libera più diffusa)

 GNU-LGPL

 BSD

 Creative Commons

 

Ogni tipo di licenza differisce dagli altri per vari aspetti.

 

Brevettabilità del software

 

Nell’Unione europea, i software non possono essere oggetto di brevetto. Il 6 luglio 2005, il Parlamento Europeo ha respinto la proposta di direttiva per la “Brevettabilità delle invenzioni attuate per mezzo di elaboratori elettronici”, sostenuta dalla Commissione .

 

La proposta è stata rigettata alla prima votazione con 648 voti contrari, 32 favorevoli, rispetto a 680 schede scrutinate.

 

Il giorno prima della votazione, la Commissione Europea ha confermato che, in caso di bocciatura, non sarebbe stato presentato un nuovo testo sull’argomento.

Categorie
Computer Database Foto Lettore Dvd Mondo Oggetti Panorama Presentazione Storia

Foto del Dvd visto da Kratos e Pandora

Categorie
Computer Database Foto Mondo Oggetti Panorama Parlare con Kratos Parlare con Pandora Presentazione Racconto Storia

Spiego a Kratos e Pandora il lettore Dvd

Dopo aver detto a Kratos e Pandora tutto sul lettore cd , io dissi a loro – adesso vi spiego tutto sul lettore Dvd e Pandora  disse – comincia quando vuoi . Dopo pochi minuti io dissi sia a Kratos sia a Pandora tutto sul lettore Dvd – Il DVD, acronimo di Digital Versatile Disc (in italiano Disco Versatile Digitale, originariamente Digital Video Disc, Disco Video Digitale) è un supporto di memorizzazione di tipo ottico.

 

Storia

 

Il DVD è il prodotto della cooperazione di alcune fra le maggiori aziende nel campo della ricerca e dell’elettronica di consumo: l’associazione d’imprese che si incaricò di redigere le specifiche del nuovo supporto, era infatti formata da Philips, Sony, Matsushita, Hitachi, Warner, Toshiba, JVC, Thomson e Pioneer. L’intento era quello di creare un formato di immagazzinamento di grandi quantità di video digitali che fosse accettato senza riserve da tutti i maggiori produttori, evitando quindi tutti i problemi di incertezza del mercato dovuti alla concorrenza fra formati che si erano presentati al tempo dell’introduzione delle videocassette per uso domestico.

 

Il DVD Forum individua 3 principali campi d’applicazione per il DVD:

 il DVD-Video, destinato a contenere film, in sostituzione della videocassetta;

 il DVD-Audio, pensato per sostituire il CD Audio grazie a una maggiore fedeltà e capacità;

 il DVD-ROM, destinato a sostituire il CD-ROM.

 

Sia nel DVD-Video che nel DVD-Audio sono previsti sistemi di protezione in grado di disincentivare la duplicazione dei contenuti. Proprio a causa di problemi nello sviluppo dei codici di sistemi di protezione adeguati, lo standard DVD-Audio sembra essere l’applicazione meno fortunata del formato DVD. Al contrario lo standard DVD-Video e DVD-ROM sono apparsi sul mercato sin dal 1997, ottenendo un enorme successo commerciale.

 

In un secondo momento, lo stesso DVD Forum introdusse gli standard per i formati registrabili del DVD. Formalizzato nel corso del 1999, il formato DVD-R è lo standard ufficiale per i DVD Registrabili. Esso si suddivide nei formati “DVD-R for authoring” e “DVD-R for general use”. I primi sono destinati alla creazione di copie di video protette da diritto d’autore, necessitano di uno speciale masterizzatore e sono in grado di implementare i sistemi di protezione dalla duplicazione. La differenza fondamentale tra i due formati risiede nella diversa lunghezza d’onda del laser: 635 nm per il DVD-R(A) e 650 nm per il DVD-R(G). I secondi sono in grado di contenere qualunque tipo di materiale, ma non sono compatibili con i sistemi di protezione utilizzati nei DVD-Video.

 

Nel 2000 è stato formalizzato lo standard DVD-RW, che ricalca le caratteristiche dei DVD-R “for general use”, ma con la possibilità di essere riutilizzato fino a mille volte (teoricamente).

 

Negli anni necessari alla formalizzazione dello standard DVD-R, sono stati commercializzati altri 2 formati per la registrazione in formato DVD: il DVD+R (e DVD+RW) dal consorzio Sony-Philips, ed il formato DVD-RAM, supportato da Matsushita e JVC. Questi formati differiscono notevolmente dal formato DVD-R in termini tecnici, anche se i più moderni lettori e masterizzatori sono in grado di supportare DVD registrabili in qualunque formato (con qualche riserva per il DVD-RAM). Il DVD-R/-RW e il DVD+R/+RW usano una tecnica di registrazione elicoidale. Il DVD-RAM usa una tecnica di registrazione a cerchi concentrici, similare a un HardDisk, al quale è assimilabile nell’uso.

 

Più recente è l’introduzione di standard per la masterizzazione di DVD a doppio strato, simili al DVD-9 industriale, e con una capienza di circa 9 GB di informazioni. Anche in questo caso la cordata Sony-Philips ha giocato d’anticipo, commercializzando il formato DVD+R Double Layer (c.d. DVD+R DL) fin dal 2002, mentre solo nel 2004 si è formalizzato lo standard ufficiale DVD-R DL.

 

Il DVD-Video

 

I DVD-Video sono supporti digitali in grado di contenere fino a 240 minuti di materiale video in formato MPEG-2. L’audio può essere in formato non compresso PCM (da 1 a 8 canali), in formato Dolby Digital AC3 (che prevede da 1 a 6 canali), in formato DTS (fino a 8 canali) o in formato MPEG.

 

I DVD-Video in commercio possiedono un codice detto codice regionale per poter essere riprodotto, usando un lettore DVD da tavolo, solo in una determinata zona del mondo (il globo è stato suddiviso in aree dalle major cinematografiche). I codici regionali dei DVD-Video sono i seguenti:

 

0 – Tutto il mondo (nessuna restrizione)

 1 – Canada, USA e suoi territori

 2 – Europa, Giappone, Hong Kong, Macao, Sudafrica, Medio Oriente, Egitto e dipendenze danesi, francesi, olandesi e britanniche

 3 – Sudest asiatico

 4 – Australia, Nuova Zelanda, America centrale e meridionale

 5 – Russia, India, Asia nordovest e Africa del Nord

 6 – Repubblica Popolare Cinese (tranne Hong Kong e Macao)

 7 – Riservato

 8 – Speciali sedi di riunioni (aeroplani, navi, hotel, etc.).

 

Il DVD-Audio

 

Il formato DVD-Audio ha subito numerosi slittamenti per problemi tecnici. Questo formato (DVDA) è stato progettato per fornire una qualità sonora notevolmente migliore di quella del CD Audio (CDDA). Malauguratamente, i sistemi di protezione dalla copia illegale implementati nel DVDA si sono rivelati molto efficaci dal punto di vista della sicurezza, ma terribilmente invasivi dal punto di vista della qualità complessiva del suono. In pratica il risultato sonoro era addirittura inferiore a quello dei normali CDDA, tanto che si è dovuto cercare altri sistemi di protezione che avessero un effetto meno marcato sulla qualità del suono.[senza fonte]

 

Nel frattempo il consorzio Sony-Philips ha introdotto, ritagliandosi una piccola fetta nel mercato audiofilo, il formato concorrente Super Audio CD SACD.

 

Altro elemento che ha concorso al fallimento del formato DVD-Audio è la sua totale incompatibilità con gli attuali lettori DVD-Video.

 

Caratteristiche tecniche del formato DVD e DVD-ROM

 

Le dimensioni dei DVD di produzione industriale sono di sei tipi:

 DVD-1, detto più comunemente Mini DVD: 1,4 GB Lato unico e singolo strato, con diametro minore di 120 mm

 DVD-3: 2,8 GB Double layer Lato unico e doppio strato, con diametro minore di 120 mm

 DVD-5: 4,7 GB Lato unico e singolo strato

 DVD-9: 8,5 GB Lato unico e doppio strato

 DVD-10: 9,4 GB Due lati e singolo strato

 DVD-18: 17 GB Due lati e doppio strato

 

I DVD “double layer” (o dual layer) permettono una doppia incisione nello stesso lato. La capacità del supporto non raddoppia esattamente, perché una parte di memoria è dedicata alla creazione di un indice e al controllo della distribuzione dei dati.

 

Il double side o “doppio lato” è un supporto che può essere inciso o riscritto da tutti e due i lati.

 

Per il double layer occorre un particolare masterizzatore con tale funzionalità. Per il double side è sufficiente avere un supporto a doppio lato, che viene inciso con i comuni masterizzatori, semplicemente girando il disco.

 

La memorizzazione delle informazioni avviene sullo “strato di incisione”, tramite un laser, focalizzato su esso, che ne modifica la riflettività, riproducendo la sequenza 0, 1 di bit. Ogni strato è suddiviso in tracce circolari e concentriche di 0,74 micrometri. In lettura la luce laser viene riflessa dallo strato di memorizzazione in modo diverso a seconda dell’indice di riflessione e conoscendo la velocità di rotazione del disco e la traccia su cui si sta leggendo, si può risalire alla sequenza di bit memorizzati.

 

La minima velocità di trasmissione dati da un DVD è otto volte maggiore di quella di un CD, cosicché un lettore DVD da 1x è quasi equivalente ad un lettore CD da 8x. Più precisamente, 1x per un lettore DVD equivale a 1350 kB/s, mentre 1x per un lettore CD equivale a 150 kB/s.

 

Il file system largamente usato nei DVD-ROM è l’UDF (Universal Disk Format).

 

Misure di un disco DVD

 

Diametro totale disco DVD: 120 mm (12 cm);

 Diametro totale foro centrale: 15 mm (1,5 cm);

 Diametro totale parte stampabile: 118 mm (11,8 cm);

 Diametro totale foro centrale non stampabile: 22 mm (2,2 cm).

 

DVD Time

 

È oggi possibile distribuire anche DVD a scadenza, aventi i medesimi standard di un DVD a doppio strato ma che si differenziano da questo per la durata fisica della traccia che contengono. La parte centrale contiene sostanza citrica che, a contatto col raggio ottico del lettore, viene lentamente sprigionata ed entro 48 ore rende il DVD inservibile avendone deteriorato la traccia.

 

Esistono vari brevetti per realizzare questi nuovi supporti. Negli Stati Uniti questa tecnologia è stata sviluppata con il marchio Flexplay dalla Flexplay Technologies, società fondata nel 1999 da Yannis Bakos and Erik Brynjolfsson.

 

Una tecnologia simile è utilizzata dalla Buena Vista con il nome ez-D.

 

Un’altra tecnologia simile, SpectraDisc, è stata sviluppata dalla SpectraDisc Corporation, acquistata interamente dalla Flexplay Technologies nel 2003.

 

In Italia i DVD a scadenza sono detti DVD Time e sono distribuiti dalla 01 Distribution che ha acquistato in esclusiva il brevetto dalla società francese DVD-Time. Il primo film distribuito in Italia su tale supporto è stato A History of Violence nel 2006.

 

Questi supporti hanno il vantaggio che il film può essere preso a noleggio senza doverlo riportare in videoteca, dopo la visione del film.

 

Il futuro dei DVD

 

Anche se l’industria ha decretato che il DVD è tecnologicamente morto, si ha l’impressione che il suo uso continuerà per un periodo non breve. Difatti esso rappresenta ancora l’85% del mercato, sebbene il Blu-ray sia in costante ascesa.

 

Lo standard che ha raccolto l’eredità del DVD è proprio il Blu-ray Disc (BD), con una capienza base di 25 GB, e con una possibilità di contenere ben otto strati, raggiungendo una capienza fino a ben 400 GB (16 strati). Prima dell’elezione del Blu-ray, lo standard rivale HD DVD aveva tentato di imporsi, ma è stato ritirato dal mercato dopo l’abbandono allo sviluppo della Toshiba. Una delle cause della vittoria del Blu-ray è l’essere stato adottato dalla Sony per contenere i videogiochi per PlayStation 3.

 

Lo studio di un possibile standard che permetterebbe il successivo salto di qualità è già avanzato: si tratta dell’Holographic Versatile Disc (HVD), basato sulla tecnologia delle memorie olografiche, che permetterà di contenere tra i 300 e gli 800 gigabyte su un disco.

Categorie
Computer Database Foto Mondo Oggetti Panorama Presentazione Storia

Foto del lettore Cd visto da Kratos e Pandora

Categorie
Computer Database Foto Mondo Oggetti Panorama Parlare con Kratos Parlare con Pandora Presentazione Racconto Storia

Spiego a Kratos e Pandora il Lettore Cd

Dopo aver detto a Kratos e Pandora tutto sull’ Alimentatore , io dissi a loro – adesso vi spiego tutto sul lettore Cd e Pandora disse – comincia quando vuoi . Dopo pochi minuti gli dissi tutto sul Lettore Cd – Il lettore di compact disc, più spesso chiamato lettore di CD o lettore CD,  è una tipologia di drive caratterizzata dall’essere destinata alla lettura dei dati memorizzati su compact disc.

 

Tipologie di lettori

 

Esistono due tipologie di lettori CD. Una dedicata alla riproduzione di musica, utilizzabile come sorgente per un qualsiasi impianto audio (vedi riproduttore CD). La seconda nata come periferica per personal computer.

 

I lettori esclusivamente audio sono stati sviluppati dai costruttori per assecondare le esigenze degli audiofili, e pensati per essere connessi a sistemi di amplificazione del suono.

 

Dall’altro lato, i lettori per computer vengono prodotti per essere collegati tramite un’interfaccia IDE (ATA, SCSI, SATA, Firewire o USB), o tramite interfacce proprietarie nel caso di alcuni computer portatili. Tutti i lettori moderni di questo tipo sono in grado di riprodurre, oltre ai normali CD audio, i numerosi standard sviluppati, tra cui Video CD, Super Video CD, CD-R e CD-RW, se utilizzati con il software adatto.

 

I lettori CD si differenziano anche per la velocità di lettura. Essa è espressa come multiplo di una quantità base, 150KB/sec. Questa velocità di base è la velocità di riproduzione dei CD audio. Incrementando la velocità di rotazione del CD è possibile aumentare la velocità di lettura dei dati. Un lettore che riporti la dicitura 12X, è in grado quindi di leggere dati dalla superficie del CD a 1800KB/sec.

 

Le velocità superiori a 12X crearono inizialmente problemi relativi alle vibrazioni del disco. 20X fu considerata la velocità massima raggiungibile fino a quando Samsung introdusse l’SCR-3230, un lettore CD che utilizza un meccanismo di bilanciamento (ball bearing) per stabilizzare il disco e ridurre vibrazioni e rumore. Attualmente, la velocità di lettura massima è 52X, dovuta alla resistenza strutturale del policarbonato usato nella costruzione dei CD. Kenwood ha dimostrato la possibilità di sfruttare più laser contemporaneamente per aumentare ulteriormente la velocità di lettura. Il lettore TrueX è in grado di leggere dati alla velocità di 72X, facendo ruotare il disco alla velocità tipica dei lettori 10X.

 

Velocità di trasferimento comuniVelocità Megabytes/s Megabits/s Mebibits/s

 1x 0,15 1,2 1,1444

 2x 0,3 2,4 2,2888

 4x 0,6 4,8 4,5776

 8x 1,2 9,6 9,1553

 10x 1,5 12,0 11,4441

 12x 1,8 14,4 13,7329

 20x 3,0 24,0 22,8882

 32x 4,8 38,4 36,6211

 36x 5,4 43,2 41,1987

 40x 6,0 48,0 45,7764

 48x 7,2 57,6 54,9316

 50x 7,5 60,0 57,2205

 52x 7,8 62,4 59,5093

 

Funzionamento del lettore CD

 

Il lettore CD legge i dischi tramite un diodo laser. I dati sono scritti sul disco come una serie di microscopiche incisioni (pits), separate da spazi (lands). La superficie riflettente del disco, composta di alluminio, viene illuminata dal raggio laser per leggerne i dati. A causa della profondità dei pit, approssimativamente tra un quarto ed un sesto della lunghezza d’onda del laser utilizzato, la fase del raggio riflesso è traslata rispetto a quella del raggio emesso inizialmente. La loro sovrapposizione causa un’interferenza distruttiva che diminuisce l’intensità del raggio riflesso. Il cambiamento di intensità di quest’ultimo è misurato e trasformato in dati binari che, opportunamente decodificati, permettono la lettura dei dati immagazzinati sul supporto.

Categorie
Computer Database Foto Mondo Oggetti Panorama Presentazione Storia

Foto dell’ Alimentatore visto da Kratos e Pandora