mand ved computer
Den 9. april 1999 fik Pia Gjellerup en buket blomster via internettet som tak for vedtagelsen af Dankort-loven.
Foto: Morten Juhl / Ritzau/Scanpix

Computerens historie

stud.mag. Maria Høher-Larsen, iBureauet/Dagbladet Information. September 2014. Opdateret af ph.d. i historie, Astrid Elkjær-Sørensen, december 2017.
Top image group
mand ved computer
Den 9. april 1999 fik Pia Gjellerup en buket blomster via internettet som tak for vedtagelsen af Dankort-loven.
Foto: Morten Juhl / Ritzau/Scanpix
Main image
Dansker og svensk it-ekspert brød ifølge anklagemyndigheden ind i politiets registre og CPR-registret, og nu begynder retssagen. Systemet er fra 1968 og beskyldes at høre fortiden til.
Dansker og svensk it-ekspert brød ifølge anklagemyndigheden ind i politiets registre og CPR-registret, og nu begynder retssagen. Systemet er fra 1968 og beskyldes at høre fortiden til.
Arkivfoto: Eva Seider / Scanpix

Indledning

Først blev den brugt i missiler, kodebrydningsmaskiner og rumraketter. I dag er computerteknologien en så stor del af vores hverdag – både på arbejde og i fritiden – at den nærmest er blevet en forlængelse af vores bevidsthed. Computeren er ikke én persons opfindelse, men summen af århundreders fysiske opfindelser og abstrakte matematiske teorier. Ofte dateres computerens fødsel til Anden Verdenskrig, hvor de allierede med den engelske matematiker Alan Turing i spidsen udviklede det teoretiske grundlag for computeren ved at benytte det binære talsystems kombinationer af tallene 1 og 0. Men faktisk udviklede man allerede fra det 17. århundrede og frem til det 20. århundrede en række mekaniske regne- og tællemaskiner til beregninger ved skibsnavigation, skatteopkrævning og folketællinger.

Artikel type
faktalink

Historisk forudsætning for computeren

Den engelske matematiker Alan Turing som ofte sættes i forbindelse med computerens fødsel under Anden Verdenskrig.
Den engelske matematiker Alan Turing som ofte sættes i forbindelse med computerens fødsel under Anden Verdenskrig.
Arkivfoto: Scanpix Danmark

Hvornår begyndte mennesket at bruge tal?

Menneskets brug af tal og beregninger er den grundlæggende forudsætning for, at computeren overhovedet blev udviklet. Man ved ikke helt præcist, hvornår mennesket egentlig begyndte at tælle eller regne, men de tidligste måder at gøre det på var at tegne streger på stokke eller bruge sten til at angive mængder. I 1960 fandt man på grænsen mellem Congo og Uganda en knogle med udskæringer, som man mener skal forestille en række af tal. Knoglen er omkring 20.000 år gammel og har fået sit navn – Ishango-knoglen – efter det folk, som levede i området på den tid.

Det mest kendte regneapparat fra antikken er romernes abacus, som var en sandbakke, hvor man ved hjælp af rullesten af kalk udførte beregninger. Kalkrullestenen hed 'calculus’ på latin, og herfra stammer verbet at kalkulere. Abacusen blev ført videre af handelsveje til Østen. Her kopierede og videreudviklede kineserne og japanerne abacusen og opfandt kuglerammen, hvor man kunne lave beregninger ved hjælp af trækugler, som glider på pinde.

Men grækerne har i oldtiden for over 2.000 år siden også haft nogle sofistikerede tidsmålere, som kunne kopiere månens og solens kredsløb via mekaniske tandhjul. De har formentlig været brugt til f.eks. skibsnavigation og beregning af tidscyklussen mellem De Olympiske Lege.

Ideen om tallet 0 kom først omkring år 600. Det var indiske matematikere, som begyndte at bruge nullet i deres udregninger samt negative tal for at repræsentere gæld. Opfindelsen af nullet gjorde det muligt at regne med meget store tal, og er forudsætningen for den logiske algebra, som er den matematik, vi anvender i dag.

Hvad betyder ordet 'computer'?

Ordet computer er engelsk og kommer fra det latinske verbum computare, som betyder at beregne noget matematisk. Computer er ifølge Den Store Danske Encyklopædi oprindeligt betegnelsen for en person, der laver beregninger. I 1800-tallet begyndte man at bruge ordet om mekaniske maskiner, som opfindere konstruerede til at lave matematiske beregninger. 0

I Danmark fik computeren betegnelsen datamat i 1960’erne, men i dag er den danske betegnelse erstattet med det engelske udtryk computer. Dataautomat og datamaskine blev også tidligere brugt om computeren.

Hvornår udviklede man de første regnemaskiner?

Det er svært at sige, hvad der var den første computer. Allerede i 1500- og 1600-tallet begyndte astronomer og astrologer at konstruere regne- og tællemaskiner, som kunne hjælpe dem med at udføre matematiske beregninger, når skibe skulle navigeres i forhold til solen, stjernerne og månen. Et eksempel er den tyske astronom og matematiker Wilhelm Schickard, der byggede en mekanisk regnemaskine, som kunne lægge tal sammen, trække fra, dividere og gange. Man har kun informationer om denne maskine fra et brev, som Schickard skrev til sin kollega astronomen Johannes Kepler i 1623.

Det var dog den kun 19-årige franskmand Blaise Pascal (1623-1663), der i 1642 begyndte at udvikle principperne til der senere skulle blive til den første regnemaskine. Pascal var søn af en skatteopkræver, og ønskede at opfinde en maskine, der ville lette faderens arbejdsmængde og gøre skatteberegningerne mere pålidelige. Efter tre års arbejde nåede Pascal frem til en prototype, han var tilfreds med, og i 1649 fik han kongeligt privilegium som Frankrigs eneste producent af regnemaskiner.

Trods dette blev Pascals opfindelse aldrig særlig udbredt, da den med datidens mekanik var både svær og dyr at fremstille.

Op gennem 1700-tallet voksede behovet for at kunne foretage komplicerede pålidelige matematiske beregninger. Et behov dels fremkaldt af voksende statsadministrative opgaver såsom mere kompliceret skatteopkrævning og befolkningsstatistik, og dels af ny teknik indenfor bygningskonstruktion og astronomi. Fagfolk besad derfor ofte over 100 bøger med tabeller, der skulle bistå dem i deres arbejde.

For at komme efterspørgslen i møde, og nedbringe antallet af fejl i statsadministration, tildelte den britiske regering i 1822 derfor den engelske matematiker og opfinder Charles Babbage (1791-1871) et stipendium til forskning i automatiseret beregning. Charles Babbage udviklede herefter, som den første ideen til en maskine, der på flere måder minder om nutidens computer. Babbage døbte sin opfindelse 'The Analytical Engine' – på dansk 'den analytiske maskine'. Ligesom vores computer havde den en styreenhed og en regneenhed kaldet the mill samt en hukommelsesenhed, the store. De tal, som skulle behandles blev repræsenteret som huller på et hulkort, mens resultatet eller outputtet blev repræsenteret af en graf eller en klokke. Selvom Charles Babbage arbejdede på sin maskine i næsten 50 år, lykkedes det ham dog aldrig til fulde at omsætte sine teorier til praktisk.

Babbages prototyper og artikler var dog nok til at inspirere en anden englænder, nemlig adelskvinden Ada Lovelace (1815-1852). Den 19-årige Lovelace mødte Babbage i 1833 til en demonstration af en hans prototypers regneevner. Ada Lovelace, der siden sin barndom havde beskæftiget sig med matematik var dybt fascineret af maskinen og dens potentiale. Hun indledte derfor et livslangt partnerskab med Babbage omkring udviklingen af analytiske maskiner.

I en af sine artikler beskriver Lovelace, hvordan kodning kunne appliceres til den analytiske maskine, så den ved siden af tal ville blive i stand håndtere og behandle symboler og bogstaver. Altså en form for computerprogram, og Ada Lovelace kan derfor beskrives som verdens første computerprogrammør. Samtidig var hun visionær, og hvor Charles Babbage kun så matematisk potential i sin maskine, forudså Lovelace at fremtidens analytiske maskiner ville være i stand til omsætte og behandle en lang række ting såsom musik, billeder og tekst i digital form. Noget, der først blev til virkelighed mere end 100 år efter hendes død.

Samtidige med at Babbage og Lovelace arbejdede med den analytiske maskine, begyndte de første serieproducerede regnemaskiner at komme på markedet under navnet arithmometer. Disse nye maskiner havde ikke samme grad af kompleksitet og udviklingspotentiale som Babbages model, men var ikke desto mindre grundlaget for langt mere effektive beregninger for virksomheder og stater.

Hvad var hulkortmaskinen?

Da Charles Babbage udtænkte sin analytiske maskine, var hulkort centralt, når maskinen skulle 'fodres’ med data, der skulle behandles, og når dataresultaterne skulle aflæses. Den hulkortteknik, som Babbage brugte i sin model, var inspireret af den franske videnskabsmand Joseph Marie Jacquard, der havde udviklet teknikken i 1700-tallet i forbindelse med konstruktionen af en mekanisk væv. På Jaquards væv aktiverede væveren kæder af hulkort via en pedal, som styrede hvilke kædetråde, der skulle løftes på væven. Dermed blev vævningen af stof mekaniseret, og når væveren skulle væve indviklede mønstre, undgik man de menneskelige fejl, som let kunne opstå, hvis væveren f.eks. glemte at løfte en kædetråd.

Hulkortmaskiner blev yderligere udviklet i sidste halvdel af 1800-tallet. I USA indførte man en maskine, da man skulle lave en optælling af befolkningen i 1890. Det var Herman Hollerith, der udviklede dette hulkortsystem til lejligheden. Alle oplysninger om den enkelte borger blev repræsenteret med huller på bestemte steder på et kort, og derefter kunne maskinen optælle hullerne på de forskellige positioner. Maskinerne aflæste hullerne med elektricitet, som slap gennem hullerne og påvirkede et tælleværk. På den måde kunne man hurtigt sortere informationer for forskellige befolkningsgrupper. Herman Hollerith grundlagde virksom heden The Tabulating Company, som senere hen udviklede sig til at blive IBM, en af de mest betydningsfulde virksomheder i computerens historie. Hulkortteknikken blev også brugt i de første elektroniske computere, inden man via tastatur og skærm kunne indtaste og aflæse data.

Hvad er logisk algebra?

Programmeringen af en computer er baseret på det binære talsystem, som er et talsystem udelukkende baseret på de to tal 1 og 0. Ifølge Datamuseum.dk var det den tyske matematiker Gottfried Leibniz, der allerede i 1703 skrev en afhandling om dette system. I stedet for at bruge 10-talsystemet anvendte han 2-talsystemet og brugte kun kombinationer af tallene 1 og 0 for at kunne repræsentere alle tal. Hans system var dog kompliceret, og det blev ikke brugt i praksis, før en engelsk matematiker ved navn George Boole i 1850’erne fastlagde nogle konkrete regneregler: Han lod 0 repræsentere den logiske værdi falsk og 1 værdien sand ud fra den logik, at alle logiske udsagn enten kun kan være falsk eller sand. Det er disse regneregler, som kaldes logisk algebra (se kilder).

I 1930’erne byggede amerikaneren Claude Shannon videre på Booles logik og påviste, at det elektriske kredsløb kunne sammenlignes med Booles symbollogik. De elektriske strømme i et elektrisk kredsløb kan signalere 1 og 0: Hvis der er strøm i et kredsløb har det tallet 1, og hvis der omvendt ikke er strøm i kredsløbet, signalerer det tallet 0. Denne logik er ifølge websiden Datamuseum.dk det centrale i computervidenskaben, fordi computerens komponenter kun har to tilstande (se kilder):

· en kontakt er tilsluttet eller afbrudt

· en ledning er strømførende eller ikke strømførende

· et felt på et hulkort er gennemhullet eller ikke hullet

· et felt på en computerdisk er magnetiseret den ene vej eller den anden vej

Den engelske matematiker Alan Turing udviklede på baggrund af denne logik en universel model for, hvordan alle computere virker – 'Turingmaskinen'. Modellen er ifølge artiklen ”Turing forvandlede computeren fra menneske til maskine” (se kilder) ikke en konkret maskine, men beskriver, hvordan computeren kan programmeres ud fra kombinationer af tallene 1 og 0. Turingmaskinen har altså intet med computerens fysiske komponenter at gøre, men er en abstrakt model af et computerprogram.

 

Videoklip om Alan Turing:

 

De første elektroniske computere

Hvornår blev de første computere opfundet?

De første computere blev udviklet under Anden Verdenskrig til at afkode fjendens kodemeddelelser, til at styre bomber og missiler og til at bygge flysimulatorer til flyvevåbnet. Både tyskerne og de allierede (USA og England) var optaget af computerteknologien som et middel til at optimere deres militære operationer. I USA blev forskningsprojekterne udført på store universiteter som Harvard Universitet, Massachusetts Institute of Technology (MIT) og Pennsylvania Universitet. Det blev ingeniører J. Presper Eckert og John W. Mauchly på Pennsylvania Universitet, der udviklede den maskine, som ofte bliver beskrevet som en af de første rigtige elektroniske computere, nemlig ENIAC-computeren (Engineering Numerical Integrator And Computer). EINAC var beregnet til brug i militærets missilprojekter og stod færdig i 1946.

Selvom ENIAC-computeren ofte bliver nævnt, som en af de første rigtige elektroniske computere, har der dog været stor diskussion om hvem, der havde ret til at tage patent på opfindelsen. Det endte med en retssag mellem virksomheden, der havde patent på ENIAC-computeren, og to andre computervirksomheder, Honeywell og CDC, der hævdede at arbejde ud fra en computermodel, som var blevet udviklet af matematikerne og fysikeren John Atanasoff allerede i 1939. Retten endte med at tilbagekalde ENIAC-patentet og afgjorde, at ingen kunne tage patent på computeren.

En anden opfindelse, der ofte fremhæves som en af de første elektroniske computere er Z3-computeren opfundet af tyskeren Konrad Zuse. Zuse havde siden 1938 arbejdet med at udvikle styresystemer til tyske missilvåben, og isoleret fra omverdenens forskning og viden byggede Zuze i 1941 en elektromekanisk computer i Berlin bestående af i alt 2000 relæer, kendt som Z3-computeren. Installationen blev ødelagt i 1943 under et bombardement, men i 1960’erne overværede Zuze en rekonstruktion af computeren, som stadig kan ses på Deutsches Museum i München.

Hvordan fungerer en computer?

Computeren fungerer i kraft af både de fysiske dele (hardware), og programmeringen af de data, som er gemt på computeren (software). Hardware er alle de fysiske dele af en computer: styreenheden, regneenheden, hukommelseslager og ydre enheder som f.eks. skærm, tastatur, printer og andet udstyr. Styreenheden og regneenheden kaldes tilsammen for centralenheden eller CPU’en efter det engelske udtryk central processing unit. Det er centralenheden, som modtager data og sørger for, at de sendes til behandling det rigtige sted eller gemmer dem på hukommelsesenheden. Med andre ord er det computerens forskellige programmer, som får enhederne til at arbejde samme og behandle de data, som er gemt i hukommelsesenheden.

En computers programmering eller software bliver udgjort af kombinationer mellem de to tal 1 og 0, som også bliver kaldt det binære talsystem. Alle data på computeren bliver udtrykt igennem et mønster af disse to tal. Det sker ved hjælp af computerens kredsløb, hvor 1 og 0 bliver signaleret ved svage elektriske strømme: Hvis der er strøm i et kredsløb har det tallet 1, og hvis der omvendt ikke er strøm i kredsløbet, signalerer det tallet 0.

Det var den engelske matematiker, Allan Turing, som i 1936 lavede en teoretisk model af denne måde at programmere en maskine på, og det er dette talsystem samt de tre fysiske enheder (styreenhed, regneenhed og hukommelsesenhed), som både de allerførste computere under Anden Verdenskrig og nutidens computere i princippet er baseret på. Den teknologiske udvikling har blot betydet, at hardwaren er blevet mindre, og softwaren mere effektiv.

Hvilke faser har der været i computerens udvikling?

Computerens historie bliver ofte inddelt i generationer alt efter, hvilken teknologi der blev brugt i maskinen særligt i forhold til, hvad der styrede det elektriske kredsløb i centralenheden (også kaldet CPU eller processor). Processoren er selve hjernen i computeren, og det er her programmeringen af computeren foregår. Udviklingen af processorens hardware har derfor været en forudsætning for, at computeren i dag kan køre langt flere og mere sofistikerede programmer, end de tidligste computere:

1. generation (1940-1956): elektronrør

2. generation (1956-1963): transistorer

3. generation (1964-1971): integrerede kredsløb

4. generation (1971- i dag): mikrochips

5. generation (2010-i dag): Parallel processing og super ledere

Den første generation er de computere, som blev udviklet under og efter Anden Verdenskrig som f.eks. ENIAC-computeren i 1946 og den senere UNIVAC-computer (Universal Automatic Computer) i 1951. Disse computere var så store, at de fyldte et helt rum, og de elektronrør, som de var bygget med, udviklede stor varme og måtte udskiftes jævnligt mellem beregningerne, fordi de blev så hurtigt overbelastet. Det nye ved UNIVAC var, at i stedet for den gamle ENIAC-computer, som brugte hulkort til at beskrive de data, som gik ind og ud af maskinen, brugte UNIVAC magnetstriber, som fyldte langt mindre.

Udviklingen af computere var i 1950’erne stadig målrettet og finansieret af militæret, rumfartsforskningen og de store offentlige kunder som f.eks. Det Amerikanske Folketællingsbureau, men UNIVAC-computeren i 1951 kickstartede også æraen, hvor computeren gjorde sit indtog i det amerikanske forretningsliv. I en reklamefilm fra midten af 50’erne demonstrerer udviklerne bag UNIVAC-computeren maskinens indretning og funktioner, og for første gang vakte en computer nysgerrighed i offentligheden (se kilder).

Problemerne med de ustabile elektronrør blev løst i anden generation (1956-1963), hvor de blev erstattet med en transistor, som udover at være mere driftsikker gjorde computeren betydeligt mindre og langt billigere at producere. Transistorerne blev videreudviklet i tredje generation (1964-1971), hvor man fandt ud af at kombinere flere transistorer i kredsløbet, hvilket gjorde computeren langt hurtigere og mere effektiv. Desuden blev monitoren (tidlig computerskærm) og keyboardet introduceret som de komponenter, brugeren skulle anvende, når computeren skulle sættes i gang med arbejdet, og når resultatet af arbejdet skulle aflæses.

Bogen ”Hulkort og EDB i Danmark” peger på modellerne fra anden og især tredje generation som computerens gennembrud, fordi udviklingen af transistorer og programmeringssprog betød, at computeren blev mindre, billigere, hurtigere og lettere at benytte. Hvor der højst blev produceret et par hundrede eksemplarer af en computer før 1959, blev produktionen nu større, fordi virksomheder kunne bruge de nye små, men effektive computere enten til at styre en industriel produktion eller til kontorarbejde som f.eks. bogholderi (se kilder).

Den fjerde generation af computere (1971 –) er de maskiner, som vi primært har i dag. De virker ved kraft en mikroprocessor, som består af kombinationer mellem flere tusinde transistorer, som er bygget ind i én enkelt chip. Disse computere kaldes ofte for mikrocomputere. Antallet af transistorer i den enkelte mikrochip ca. er fordoblet hvert år (eksponentiel udvikling). Det er den væsentligste årsag til den enormt hurtige udvikling, vi har set, fra køleskabsstore computere til iPhones og computere indbygget i f.eks. høreapparater. De to virksomheder IBM og Apple har domineret den teknologiske udvikling af denne generations fysiske komponenter (hardwaren). På software området har Microsoft domineret. Særligt på grund af deres operativsystemer, som er det software, som brugeren styrer computeren med.

Udviklingen af hardware, som gør computeren mindre, og af software, som gør computeren mere brugervenlig, er forudsætningen for, at pc’en (den personlige computer) blev populær i løbet af 1980’erne.

Den femte generation af computere (2010-) er maskiner som ved hjælp af parallel processing (evnen til at behandle forskellige stimuli samtidig) og superledende komponenter.

En helt ny generation af computere bliver kvantecomputeren, hvor man ikke længere er begrænset af kun to tilstande (0 og 1) og derfor kan foretage svimlende komplekse beregninger ”oven i hinanden”. Men lige nu finde der kun testmodeller i laboratorier på universiteter og i store firmaers forskningsafdelinger.

Der er også store forventninger til udviklingen af kunstig intelligens (AI), der dog ikke er en ny hardware-teknologi som de andre nævnte generationer. Kunstig intelligens er snarere en ny konceptuel tilgang til programmering.

Kunstig intelligens defineres som når en maskine besidder kognitive funktioner, vi normalt kun forbinder med mennesker, såsom evnen til selvstændigt at foretage problemløsning og indlæring af nye ting. Ideen om maskiner med ”kognitive funktioner” rækker tilbage til Allan Turings arbejde og den såkaldte Turing-test.

Teknologien omkring kunstig intelligens er stadig meget ny og under udvikling, om end vi allerede har fremstillet maskiner, der forstår sprog og kan respondere herpå. I fremtiden forudser man at computere vil have evnen til selvstændigt at organisere data og på baggrund heraf lære nye ting. Kunstig intelligens vil kunne bruges til f.eks. at udvikle selvkørende biler, maskiner, der kan bistå ved kirurgiske operationer, såvel som helt nye former for computerspil.

(For kronologisk oversigt over computerens udvikling se Del 4)

 

Ted-foredrag om kunstig intelligens (AI):

 

 

Hvornår opfandt man computerskærmen?

Omkring og efter Anden Verdenskrig var computerens input og output repræsenteret med hulkort. Input er de data eller informationer, som man fodrer maskinen med, mens output er de data eller facit, som maskinen kommer frem til efter at have behandlet datainput. Nogle maskiner brugte i stedet for hulkort ruller af papirtape. Mønstret af huller på papiret programmerede computeren til et bestemt job, og resultatet af computerens arbejde kom ud som et mønster af huller på lignende papir. En elektrisk skrivemaskine kunne så aflæse mønstret og udskrive resultatet som forståelig skrift. Den tyske matematiker, Konrad Zuzes Z3-computer fra 1941 beskrev sit output på et panel med forskellige lys, som ved at blinke indikerede, når computeren behandlede input.

Den elektroniske måde at repræsentere data på blev for alvor udviklet i løbet af 1960’erne, hvor en monitor kunne vise skriftlige resultater af computerens arbejde på en skærm.

I 1980’erne begyndte der at komme farve på computerskærmen. Udviklingen af farveskærmen skyldtes især en øget efterspørgsel hos brugerne af de personlige computere. Folk købte nemlig for det meste en computer på grund af de computerspil, som computeren kunne køre, og dermed blev der skabt et marked for at udvikle computerens grafiske udtryk til også at kunne vise farver og animationer. Maskinen Amiga blev i 1985 den første computer, som kunne vise animationer i fuld farve.

LCD-skærmen (Liquid Crystal Display) blev udviklet igennem 1980’erne og 1990’erne, især målrettet de bærbare computere, fordi LCD-skærmen fylder langt mindre end den oprindelige computerskærm, som bestod af et billedrør ligesom de oprindelige fjernsynsskærme. I dag bruges LCD-teknologien i fladskærme både til computere og fjernsyn.

Et slideshow med billeder fra PCWorld viser, hvordan computerdisplays har udviklet sig siden 1940’erne (se kilder).

Den personlige computer (pc'en)

Tina og Brian foran computeren.
Tina og Brian foran computeren.
Foto: Scanpix

Hvordan blev pc’en (den personlige computer) udviklet?

De små mikrocomputere blev langsomt en forbrugsvare i 1970’erne. I starten var computeren dog stadig kun for folk, som kunne finde ud af at programmere maskinen med kodesprog. Man havde udviklet en række programmeringssprog – f.eks. FORTRAN i 1957 og UNIX i 1972. Begrebet personal computer (pc) opstod i 1975, da virksomheden MITS udgav computeren Altair 8800, som kunne købes som samlesæt. I alt 10.000 eksemplarer blev produceret, hvilket var et langt større antal, end andre computermodeller hidtil var blevet produceret i. Computeren havde plads til 256 bytes på hukommelsesenheden og blev solgt for mellem 300 og 400 dollar. Til sammenligning kan man i dag få Apples iPhone med en hukommelse på op til 128 GB, hvilket svarer til omkring 138 milliard bytes.

De to unge studerende, Bill Gates og Paul Allen, udviklede sammen softwareprogrammet BASIC til Altair, som de tog patent på, og senere samme år grundlagde de virksomheden Microsoft, som de næste mange årtier fik en vigtig rolle i udviklingen af software. I 1980’erne begyndte Microsoft at sælge styresystemer, som gjorde det muligt for den almindelige forbruger at bruge computeren selv.

Udover Microsoft er IBM og Apple de to virksomheder, som har været mest involveret i udviklingen af pc’en. IBM lancerede deres første pc i 1981, som fungerede med Microsofts styresystem MS-DOS. Apple introducerede deres Macintosh i 1984. Det var den første computer, som brugeren styrede med en mus, og det var den første computer med en grafisk skærmflade, hvor brugeren interagerede med computeren ved at klikke på forskellige ikoner. Med computeren fulgte tegneprogrammet MacPaint og skriveprogrammet MacWrite.

Hvornår blev internettet opfundet?

Internettet var et nyt skridt i computerteknologien, og gjorde den personlige computer til mere end blot en spille- og skrivemaskine. Ligesom computeren blev internettet også til lidt efter lidt ved hjælp fra forskellige udviklere og institutioner, men det var på CERN-laboratorierne i Schweiz, at internettet (World Wide Web), som vi kender det i dag, for første gang blev prøvekørt i slutningen af 1990. Tre år senere valgte CERN at frigive internettet uden at forlange betaling fra brugere. I midten af 1990’erne begyndte internettet at blive brugt bredere, og der kom søgemaskiner (bl.a. Google), hvilket gjorde brugerne i stand til at sortere blandt alle websiderne.

I første omgang blev internettet mest brugt til søgning efter informationer og viden, men efterhånden dukkede der også kommercielle websider op, hvor man kunne foretage indkøb. En af de mest kendte af disse er Amazon, der allerede i 1994 satte bøger til salg online. I 00’erne begyndte de sociale medier at dukke op, hvilket gjorde det muligt for folk at engagere sig socialt gennem computeren.

Hvilken software har haft størst betydning for pc’en?

Det var ikke kun hardwareudviklingen, som skabte boomet i salget af den personlige computer, men i høj grad også softwareudviklingen. Microsoft er en af desoftware-producenter som har betydet meget for udbredelsen af pc’en. Deres styresystemer i 1980’erne og 1990’erne i første omgang Microsoft DOS og siden Windows – betød, at man ikke behøvede at kunne programmere for at kunne bruge en computer. Firmaet Apple har også spillet en vigtig rolle i udvikling af software. Selvom Microsoft ofte nævnes som den store softwareudvikler, var det faktisk Apple, som i 1984 først skabte et operativsystem, hvor brugeren med en mus kunne navigere via grafiske ikoner på computerskærmen.

De fleste pc’er sælges i dag med det nyeste Windows-styresystem. Der har været få konkurrenter i forhold til at udvikle andre styresystemer til pc’en, men i 1991 udgav den finske it-studerende Linus Torvald et nyt styresystem, Linux, til pc'en, som han i modsætning til Microsoft ikke krævede penge for. Ved indgangen til 2017 havde Linux en markedsandel på omkring 3,3 %). Linux er stadig for de lidt mere nysgerrige og nørdede computerbrugere, der har mod på at have fingrene nede i maskinrummet, hvorimod Windows-brugeren møder computerens funktioner på en enklere måde.

Udover styresystemet er browseren et andet software, som har været altafgørende i forhold til brugen af computeren. Browseren var en forudsætning for, at brugeren kunne benytte internettet – netværket mellem computere. Den første browser hed Mosaic og blev udviklet på University of Illinois af Marc Andreesen og Eric Bina i 1993. I 1995 fulgte Internet Explorer, som Microsoft introducerede som en integreret del af deres styresystem Windows ’95.

Linux’ princip om gratis og frit tilgængeligt software har skabt en bevægelse, som ønsker gratis software. Open Office er f.eks. et gratis alternativ til Microsofts Office Pakke.

Mange firmaer har formået at gøre brugernes ønske om gratis software og online tjenester til en god forretning. F.eks. koster Googles tjenester og programmer og det populære sociale medie Facebook ingen penge for brugerne at benytte, men er alligevel en milliardforretning for virksomhederne. Pengene tjener virksomhederne ved at sælge informationer om deres brugere videre til andre virksomheder, som så kan bruge dataene til at målrette deres markedsføring direkte til den enkelte forbruger. Så nu du f.eks. har surfet på ferier i Sverige på google eller syntes godt om bestemte emner på Facebook, bliver disse oplysninger solgt videre, og brugt til at sende dig målrettede tilbud.

Forretningsmodeller som disse har været meget omdiskuterede, og er blevet beskyldt for at gribe ind i folks ret til privatliv. Kritikerne er også bange for at de mange gemte informationer om vores færden på nettet kan misbruges af både myndigheder og virksomheder.

Hvornår udviklede man den bærbare computer?

Opfindelsen af den bærbare computer, er ligesom opfindelsen af computeren svær at datere. IBM markedsførte i 1975 deres model 5100, men den er langtfra bærbar som vi forstår det i dag. Se billeder af nogle af de første bærbare computere på hjemmesiden oldcomputers.net (se kilder).

I løbet af 1980'erne blev den bærbare computer mindre, og de blev så små, at brugeren kunne sidde med dem i skødet – heraf den engelske betegnelse 'laptop’ – og snart fandt den bærbare computer sin kendte form med skærmen, som man lukker ned over tastaturet.

Apple er i dag særligt populære for deres bærbare computere, iPhones og iPads, men faktisk var lanceringen af deres første bærbare computer, Macintosh Portable, i 1989 en stor skuffelse, fordi den både var alt for dyr og alt for tung. Den kostede 6.500 dollar og vejede over syv kilo. Først i 1991 lykkedes det dem at producere en succesfuld bærbar udgave af deres Macintosh-computer, som blandt andet blev populær, fordi designet gav plads til, at brugeren kunne hvile håndleddene foran tastaturet. IBM lancerede også en succesfuld serie af bærbare computere midt i 1990’erne med deres ThinkPad-computere – en serie og et design, som stadig produceres i dag.

De helt små håndholdte tablets, blev introduceret i 1987, da Linus Write-Top blev udgivet. Først i 1993 kom Apples tablet, MessagePad. Fælles for disse tidlige tablets var, at de fungerede ved, at brugeren skrev og styrede enheden med en blyant på en trykfølsom skærm.

Microsoft introducerede deres første tabletcomputer allerede i 2000, men det var Apple, der fik størst succes med tabletten, da de i 2010 udviklede iPad'en. I maj 2017 havde Apple solgt i alt 360 millioner eksemplarer.

Kronologi over computerens historie

Historiske forudsætninger for computerens udvikling

 

Ca. 20.000

f.Kr.

Fundet af en knogle med mærker viser, at det afrikanske Ishango-folk har haft en form for talsystem, kalender eller beregningssystem.

Ca. år 0

Grækerne opfinder en sofistikeret anordning, som ved at imitere månens og solens bane kan bruges til tidsmåling.

Ca. 500

Romerne opfinder abacusen, som via handelsveje bliver ført til Asien, hvor kineserne videreudvikler den til kuglerammen.

600

Tallet '0’ bliver opfundet, hvilket gør det muligt at regne med meget store tal.

1624

Den første, kendte mekaniske regnemaskine, det såkaldte kalkulationsur, blev konstrueret af den tyske astronom og matematiker Wilhelm Schickard.

1645

Franskmanden Blaise Pascal opfandt og konstruerede en mekanisk sammentællingsmaskine.

1673

Tyskeren Gottfried von Leibnitz fremstillede en maskine, der kunne addere, subtrahere, gange, dividere og udregne kvadratrødder.

1703

Gottfried von Leibniz udgiver en afhandling om det binære talsystem, hvor han viser, at et talsystem, som kun består af to tal, kan erstatte 10-talsystemet

1800

Hulkortteknikken blev udviklet af Joseph-Marie Jacquard og anvendes til den såkaldte Jacquard mønstervæv.

1833

 

1843

Charles Babbage fik ideen til en programmerbar maskine, The Analytical Engine. På grund af tekniske og økonomiske problemer blev maskinen aldrig realiseret.

Ada Lovelace udgiver en artikel, der indeholder en teoretisk beskrivelse af computerprogrammering.

1854

George Boole skriver en afhandling om symbolsk logik på baggrund af det binære talsystem, et grundlæggende element i moderne computere.

1890

Amerikaneren Herman Hollerith udviklede et system, der kunne aflæse hulkort til brug for den amerikanske folketælling. Hollerith stiftede firmaet The Tabulating Machine Company, som senere udviklede sig til IBM

 

Pionertiden – computerens udvikling fra 1930’erne til 1950’erne

1937

Den engelske matematiker Allan Turing konstruerede en abstrakt model af en automatisk, programmerbar maskine under navnet den universelle maskine eller blot Turing-maskinen.

1939

Amerikanerne John Atanasoff og Clifford Berry byggede den første elektroniske digitale computer, senere kaldet Atanasoff-Berry Computeren eller ABC.

1941

I Tyskland konstruerede Konrad Zuse den første mekaniske, programmerbare, digitale regnemaskine, kendt som Z3.

1943

Under krigen udviklede englænderen Allan Turing under navnet Colossus de elektroniske, radiorørsbaserede kodebrydende maskiner.

1946

Amerikanerne J. Presper Eckert og John Mauchly bygger ENIAC-computeren. ENIAC står for Electronic Numerical Integrator and Computer og betragtes af mange som verdens første computer.

1947

Transistoren, der er en af de væsentligste komponenter i moderne computere, bliver udviklet ved Bell Telephone Laboratories i et samarbejde mellem William Shockley, John Bardeen og Walter Brattain.

1951

Den første kommercielle computer UNIVAC, Universal Automatic Computer, blev færdig i 1951.

1952

John von Neumann udvikler i samarbejde med blandt andre Herman H. Goldstine den såkaldte IAS-computer, der i konstruktionsprincip kom til at danne skole for mange efterfølgende computere.

1955

I Danmark stiftes Regnecentralen, Dansk Institut for Matematikmaskiner, og Niels Ivar Bech leder arbejdet med at bygge den første danske computer, DASK, med midler fra Marshall-hjælpen.

1957

Højniveauprogrammeringssproget FORTRIN udvikles i USA under ledelse af John W. Backus. I Danmark præsenteres den første danske computer, DASK, i Forum.

1958

I 1958 fik transistoren sit gennembrud, hvilket fik stor betydning for at computerne blev mindre og hurtigere. IBM introducerede sin IBM 7090, en computer baseret på transistorer frem for store radiorør.

 

Kommercialiseringen og internettet – computerens udvikling
fra 1960’erne til 00’erne

1968

Danmark indførte som det første land i verden et edb-baseret centralt personregister med individuelle cpr-numre.

1972

Intel introducerer den første 8-bit mikroprocessor, Intel 8008.

1973

UNIX skrives om i C og får den form, der kendes i dag.

1975

Den første personlige computer, MITS Altair, udgives. Samme år udvikler Microsoft programmeringssproget BASIC, der står for Beginners All-purpose Symbolic Instruction Code.

1979

Forløberen for MS-DOS, QDOS udvikles. Det første regneark, VisiCalc, introduceres.

1981

I 1981 præsenterer IBM deres første personlige computer, IBM PC. Maskinen var baseret på det første operativsystem fra Microsoft, MS-dos 1.0. Processoren var en 8088 fra Intel.

1982

Styresystemet MS-DOS version 1.1 introduceres. Samme år introduceres compact disc teknologien.

1984

Den første Macintosh-computer blev lanceret af Apple.

1989

I 1989 kom Windows på markedet, idet der blev lanceret en grafisk brugergrænseflade til computeren. Mange mente, at den var kopieret fra Apple og at den i øvrigt ikke var nær så god som Apples.

1990

CERN-laboratorierne udviklede internettet (World Wide Web) og HTML-kodesproget

1999

Begrebet ”Wi-Fi” introduceres, da internetbrugere begynder at gå på internettet via trådløst netværk

2001

Apple lancerede deres Mac OS X-styresystem, mens Microsoft udgav Windows XP

2004

Mozilla udgav webbrowseren Firefox som en konkurrent til Microsofts Internet Explorer

2006

Apple udgiver deres bærbare computer MacBook Pro

 

2009

Otte år efter Windows XP lancerer Microsoft deres næste styresystem, Windows 7

 

2010

 

 

2011

 

 

2011

 

 

2015

 

 

Apple udgiver iPad’en, som i løbet af et par år bliver solgt i 100 millioner eksemplarer

 

IBM’s computer Watson vinder over to verdensmestre i Jeopardy

 

Apple introducerer ”Siri” en personlig, digital assistent, der er indbygget i alle Iphones. Gennem AI er Siri i princippet i stand til at forstå mundtligt formulerede spørgsmål, og tilpasse sine funktioner til brugerens adfærd.

 

Apple lancerer Apple Watch. Det er første gang, det er lykkedes et firma at producere en computer i urform.

Computerens betydning

Hvilken betydning har computeren fået?

Computeren findes i dag overalt i vores hverdag i den vestlige verden: når vi skal finde vej via vores GPS, når den elektroniske kalender minder os om et møde, når vi køber ind online, eller når vi sætter robotstøvsugeren til at gøre rent. Internettet har gjort det muligt at kontakte folk via e-mails eller at være en del af virtuelle sociale fællesskaber som f.eks. Facebook eller Twitter. Danmark er sammen med de andre nordiske lande og Holland de lande, hvor befolkningen bruger computeren og internettet mest. Ifølge en rapport fra Danmarks Statistik brugte 89 % af den danske befolkning dagligt en computer i 2013. Til sammenligning ligger EU-gennemsnittet på 71 % (se kilder).

Men det var i militære projekter og i rumfartsforskningen, at computerteknologien i første omgang spillede en afgørende rolle. Under Anden Verdenskrig udviklede de allierede computere, som kunne afkode krypterede meddelelser fra det tyske militær. I 40’erne og 50’erne var det fortsat typisk det amerikanske militær, som var involveret i udviklingen af computeren ved at finansiere en række projekter som f.eks. UNIVAC-computeren, der blev udviklet i 1952 til bl.a. at simulere flyveøvelser. Computeren har været med til at ændre den måde, som stater i dag fører krig på, f.eks. med udvikling af droner, som er små ubemandede fly. Dronerne kan bruges til at overvåge store landområder, og de kan bære bomber ind over en krigszone uden at sætte en pilots liv på spil.

I rumfartsforskningen har computerteknologi været en forudsætning for, at det overhovedet kunne lade sig gøre at sende raketter og mennesker ud i rummet. Den amerikanske rumfartsorganisation NASA var med sit Apollo-program i 1960’erne en særlig vigtig aktør i computerens historie. NASA udviklede bl.a. mikrochippen, som gjorde det muligt at konstruere mikrocomputerne, det vil sige de små personlige computere.

I produktionssektoren har computerteknologi betydet, at mange ufaglærte produktionsjob og fysisk hårde opgaver, som mennesker før i tiden stod for, nu varetages af computerstyrede maskiner, og ifølge artiklen ”Nu kommer den digitale økonomiske revolution” står vi på tærsklen til en digital revolution, som vil betyde, at computere og robotter i endnu større omfang vil overtage funktioner i produktions- og servicesektoren (se kilder). Opfindelsen af internettet har også ændret markedet og forbruget. Med internettet kan forbrugere skabe sig et overblik over, hvor varerne kan købes billigst, og virksomhederne har omvendt nogle helt nye muligheder for at lokke deres potentielle kunder til – f.eks. igennem målrettede annoncer på sociale medier som Facebook.

Også i sundhedssektoren findes computeren over alt. F.eks. bliver det mere og mere almindeligt, at kirurger opererer med robotarme, der laver mindre og mere nøjagtige snit end menneskelig hænder. Udviklingen inden for robotteknologi har også betydet, at man efterhånden er langt i udviklingen af højteknologiske proteser til folk, der har mistet en legemsdel. Med de nye højteknologiske proteser er det muligt ved tankens kraft at styre et ben, en arm eller endda en hånd, som neurologisk set er en meget kompliceret del af den menneskelige krop.

Hvordan påvirker computeren mennesket psykologisk og socialt?

Udviklingen af computerens hardware har betydet, at ganske små computere i dag er langt kraftigere end de store supercomputere, som det amerikanske militær udviklede efter Anden Verdenskrig, og som fyldte et helt rum. I dag kan vi bære små, men meget kraftfulde computere rundt i form ad en tablet eller smartphone. Internettet har betydet, at man på meget kort tid kan få overblik over et emne blot ved en enkelt søgning på Internettet, og man kan dele viden og tanker med andre, der sidder på den anden side af jordkloden. På grund af denne frie adgang til viden og informationer kaldes vores samfund i dag også for informationssamfundet.

Det ændrer den måde, vi tænker på, hvem vi er, og hvordan vi er sammen med andre mennesker. Andre teknologiske opfindelser i menneskets evolution har været med til at udvide menneskets fysiske egenskaber, men ifølge artiklen ”Vores verden er blevet meget større” har computeren givet mennesket en ekstra hjerne – en ekstra bevidsthed. Med smartphonen kan vi have en hel verden af informationer i lommen, og vi bruger telefonen til så mange ting – aftaler, planlægning, avislæsning, indkøb – at den nærmest er blevet en organisk del af os. Nogle forskere mener også, at vi derfor har ændret os i sociale sammenhænge. Vi er blevet mere overfladiske, fordi vi så hurtigt kan rette vores opmærksomhed mod andre ting igennem vores telefoner (se kilder).

Men computeren og internettet har også skabt et virtuelt rum for, at mennesker kan skabe sociale fællesskaber uden fysisk at være sammen. På diskussionsfora kan mennesker på tværs af lande, sociale skel og alder kommunikere, og i spil som f.eks. Counter-Strike eller Liege of Legends kæmper man sammen med andre spillere mod fjenden i et virtuelt rum. Især computerspil har i mange år været udskældt for at gøre børn asociale, dumme og endda voldelige, men ifølge artiklen ”Computerspil er bedre end deres rygte” er det myter, som ikke har noget med virkeligheden at gøre. Så længe barnet ikke overdriver brugen, mener forskere, at computerspil tværtimod kan have en gavnende effekt på barnets indlæring og sociale kompetencer, fordi det lærer at løse opgaver i samarbejde med andre (se kilder).

Hvad har computeren betydet for vores måde at tænke og gøre politik?

I de demokratiske samfund har de sociale medier gjort det muligt for politikere og borgere at kommunikere direkte uden de traditionelle medier som mellemled. USA’s præsident fra 2016 Donald Trump og hans forgænger Barack Obama er begge eksempler på toppolitikere, der har brugt de sociale medier særdeles aktivt i deres valgkampe. Politisk aktive borgere og NGO’er kan omvendt bruge internettet til at organisere sig, og uden de store økonomiske midler kan de hurtigt skabe opmærksomhed omkring forskellige sager.

Ifølge artiklen ”Sociale medier er ikke en demokratisk klasseknuser” skal man dog passe på at tro, at computerteknologien og de sociale medier ved deres blotte eksistens giver os en bedre og mere inklusiv demokratisk samtale. Forskningen tyder nemlig på, at det hovedsageligt stadig er ressourcestærke borgere, der trænger igennem med deres budskaber på nettet. De sociale mediers flade struktur indeholder også en risiko for at minoriteter og mindre sager overses, da det, der er tydeligt på nettet, er det, som majoriteten trykker synes godt om og søger på.

I mindre demokratiske samfund har sociale medier såsom Facebook og Youtube givet systemkritikere og helt almindelig borgere en chance for at organisere sig og dele og dokumentere overgreb udenom myndighedernes censur. I det arabiske forår (2010-2011) brugte demonstranter f.eks. de sociale medier til at organisere sig, arrangere demonstrationer mod myndighederne og kommunikere med verdenspressen.

Men computerteknologien giver også antidemokratiske ekstremistiske grupper nye muligheder for at komme ud med deres budskab og foretage terrorangreb. Terrorbevægelsen Islamisk Stat har f.eks. brugt Youtube og andre sociale medier aktivt til at komme i kontakt med mulige følgere og til at dele videoer med bl.a. henrettelser af nødhjælpsarbejdere. Efterretningstjenesterne frygter ligeledes, at vi i fremtiden vil risikere at blive udsat for cyberterrorisme – dvs. terrorisme, hvor en terrorgruppe går direkte efter at ramme et lands digitale infrastruktur. Dette kan betyde at vores energisektor bryder sammen eller at vigtige databaser slettes. Myndighederne vurderer dog pt. at risikoen for sådanne angreb er lav.

Hvilken rolle får computeren i fremtiden?

De computere, som vi kender i dag, er primært fra den fjerde generation af computere (mikrocomputerne), men i fremtiden vil udviklingen især blive præget af femte generation af computere med så stor og sofistikeret en tankekraft, at de vil kunne simulere den menneskelige bevidsthed.

Ifølge artiklen ”Nu kommer den digitale økonomiske revolution” står verden på trapperne af en revolution, hvor computere vil revolutionere økonomien på samme måde, som dampmaskinerne revolutionerede samfundsøkonomien i slutningen af 1700-tallet. Computere vil kunne overtage flere og flere opgaver – ikke kun i produktionssektoren, men også i servicesektoren. En selvkørende bil kan f.eks. erstatte taxachaufføren, mens den talende computer kan erstatte telefonsælgeren (se kilder). En sådan udvikling vil altså betyde at flere job og erhverv forsvinder – men sandsynligvis også at nye jobfunktioner opstår indenfor IT og oplevelsesøkonomi.

Ifølge artiklen ”Computeren bliver så småt en del af os” kan intelligent tøj være et eksempel på, hvordan mennesket i bogstaveligste forstand kan få computeren helt ind på kroppen i fremtiden. Forskere i England har fundet ud af, at det kulstofholdige grafen kan lede elektricitet og dermed bruges til at lave tøj, som indeholder elektronisk udstyr. Det kan f.eks. bruges til at overvåge en patients fysiske tilstand. Man har allerede udviklet en chip, som kan sættes ind under huden på en diabetespatient, så den kan overvåge blodsukker og tilkalde en læge, hvis patientens tilstand bliver kritisk (se kilder).

Hvilken betydning computerteknologien har og får, afhænger dog i høj grad af din indkomst og hvor i verden du bor. For en stor del af verdens befolkning er det meste moderne computerteknologi stadig uopnåelige luksusvarer. Ligeledes kræver nyere computeropfindelser såsom internettet, at der eksisterer en grundlæggende digital infrastruktur i samfundet. Hvor udbygget denne digitale infrastruktur er, varierer dog fra stat til stat, og mellem landområder og byområder.

Computerudviklingen har altså ikke fjernet globale uligheder. Men den har gjort dem tydeligere, da den hurtige og nemme digitale tilgang til informationer synliggør, hvordan mennesker lever i andre dele af verden. Muligheden for at følge livet i Vesten via internettet vil ifølge artiklen ” Bagvejen til Europa er blevet en besættelse” kunne betyde at flere vælger at migrere i jagten på et bedre liv (se kilder).

Baggrundskilder

Originalkilder

Dokumentar

Dokumentar fra History Channel om den mystiske græske maskine, som blev fundet ved et skibsvrag uden for græsk ø omkring år 1900. Man mener, at det er det tidligste eksempel på en mekanisk beregningsmaskine.
Dokumentarfilm fra Cambridge University om computerens historie fra Charles Babbage til 1990'erne.

Websider

Online udstillinger om computerens historie – om de kodebrydende maskiner under Anden Verdenskrig, de første små håndholdte computere og internettets historie. Websiden indeholder også en omfattende tidslinje over computerteknologiens udvikling fra 1939 til 1994.

Bøger

Frauenfelder, Marc: Computerens Historie. Nyt Nordisk Forlag, 2006- Informativ og underholdende bog, der via både tekst og billeder fører læseren igennem små og store begivenheder i computerens historie.
Howard, Philip N. & Hussain, Muzammil M.: “Democracy’s fourth wave? Digital media and the arab spring. Oxford University Press 2013.
Plant, Sadie: Det binære køn: Digitale kvinder og den nye technokultur. Samleren 2001. Med Ada Lovelaces biografi som den røde tråd giver forfatter historien om kvinders ofte oversete indflydelse på den teknologiske udvikling.

Søgning i bibliotek.dk

Emnesøgning på Computerens historie

Kilder citeret i artiklen

Dokumentar og videoklip

Amerikansk reklamefilm fra 1950'erne.

Artikler

Hunt, Louise: Bagvejen til Europa er blevet en besættelse. Information 2015-08-26.
Hachman, Mark: The price of free: How Apple, Facebook, Microsoft and Google sell you to advertisers. PCWorld 2015-10-01.
Guldagger, Mette og Sabrina Skjødt: Computerspil er bedre end deres rygte. Politiken, 2014-02-15.
Pedersen, Christian Grunert: Computeren bliver så småt en del af os. Politiken, 2013-04-21.
Palludan, Rasmus: Vores verden er blevet meget større. Berlingske Tidende, 2012, 07-22.
Tholl, Sofie: ”Sociale medier er ikke en demokratisk klasseknuser” Information, 2013-07-18.

Museer og udstillinger

Dansk Datahistorisk Forenings hjemmeside Datamuseum.dk
Computerhistory.org (Om Linux).

Bøger

Chandler, Alfred D.: Inventing the Electronic Century. The Free Press, 2001.