mand ved computer
Den 9. april 1999 fik Pia Gjellerup en buket blomster via internettet som tak for vedtagelsen af Dankort-loven.
Foto: Morten Juhl / Ritzau/Scanpix

Computerens historie

Artikel type
faktalink
stud.mag. Maria Høher-Larsen, iBureauet/Dagbladet Information. September 2014. Opdateret af ph.d. i historie, Astrid Elkjær-Sørensen, december 2017.
Top image group
mand ved computer
Den 9. april 1999 fik Pia Gjellerup en buket blomster via internettet som tak for vedtagelsen af Dankort-loven.
Foto: Morten Juhl / Ritzau/Scanpix
Main image
Dansker og svensk it-ekspert brød ifølge anklagemyndigheden ind i politiets registre og CPR-registret, og nu begynder retssagen. Systemet er fra 1968 og beskyldes at høre fortiden til.
Dansker og svensk it-ekspert brød ifølge anklagemyndigheden ind i politiets registre og CPR-registret, og nu begynder retssagen. Systemet er fra 1968 og beskyldes at høre fortiden til.
Arkivfoto: Eva Seider / Scanpix

Indledning

Først blev den brugt i missiler, kodebrydningsmaskiner og rumraketter. I dag er computerteknologien en så stor del af vores hverdag – både på arbejde og i fritiden – at den nærmest er blevet en forlængelse af vores bevidsthed. Computeren er ikke én persons opfindelse, men summen af århundreders fysiske opfindelser og abstrakte matematiske teorier. Ofte dateres computerens fødsel til Anden Verdenskrig, hvor de allierede med den engelske matematiker Alan Turing i spidsen udviklede det teoretiske grundlag for computeren ved at benytte det binære talsystems kombinationer af tallene 1 og 0. Men faktisk udviklede man allerede fra det 17. århundrede og frem til det 20. århundrede en række mekaniske regne- og tællemaskiner til beregninger ved skibsnavigation, skatteopkrævning og folketællinger.

Historisk forudsætning for computeren

Den engelske matematiker Alan Turing som ofte sættes i forbindelse med computerens fødsel under Anden Verdenskrig.
Den engelske matematiker Alan Turing som ofte sættes i forbindelse med computerens fødsel under Anden Verdenskrig.
Arkivfoto: Scanpix Danmark

Hvornår begyndte mennesket at bruge tal?

Menneskets brug af tal og beregninger er den grundlæggende forudsætning for, at computeren overhovedet blev udviklet. Man ved ikke helt præcist, hvornår mennesket egentlig begyndte at tælle eller regne, men de tidligste måder at gøre det på var at tegne streger på stokke eller bruge sten til at angive mængder. I 1960 fandt man på grænsen mellem Congo og Uganda en knogle med udskæringer, som man mener skal forestille en række af tal. Knoglen er omkring 20.000 år gammel og har fået sit navn – Ishango-knoglen – efter det folk, som levede i området på den tid.

Det mest kendte regneapparat fra antikken er romernes abacus, som var en sandbakke, hvor man ved hjælp af rullesten af kalk udførte beregninger. Kalkrullestenen hed 'calculus’ på latin, og herfra stammer verbet at kalkulere. Abacusen blev ført videre af handelsveje til Østen. Her kopierede og videreudviklede kineserne og japanerne abacusen og opfandt kuglerammen, hvor man kunne lave beregninger ved hjælp af trækugler, som glider på pinde.

Men grækerne har i oldtiden for over 2.000 år siden også haft nogle sofistikerede tidsmålere, som kunne kopiere månens og solens kredsløb via mekaniske tandhjul. De har formentlig været brugt til f.eks. skibsnavigation og beregning af tidscyklussen mellem De Olympiske Lege.

Ideen om tallet 0 kom først omkring år 600. Det var indiske matematikere, som begyndte at bruge nullet i deres udregninger samt negative tal for at repræsentere gæld. Opfindelsen af nullet gjorde det muligt at regne med meget store tal, og er forudsætningen for den logiske algebra, som er den matematik, vi anvender i dag.

Hvad betyder ordet 'computer'?

Ordet computer er engelsk og kommer fra det latinske verbum computare, som betyder at beregne noget matematisk. Computer er ifølge Den Store Danske Encyklopædi oprindeligt betegnelsen for en person, der laver beregninger. I 1800-tallet begyndte man at bruge ordet om mekaniske maskiner, som opfindere konstruerede til at lave matematiske beregninger. 0

I Danmark fik computeren betegnelsen datamat i 1960’erne, men i dag er den danske betegnelse erstattet med det engelske udtryk computer. Dataautomat og datamaskine blev også tidligere brugt om computeren.

Hvornår udviklede man de første regnemaskiner?

Det er svært at sige, hvad der var den første computer. Allerede i 1500- og 1600-tallet begyndte astronomer og astrologer at konstruere regne- og tællemaskiner, som kunne hjælpe dem med at udføre matematiske beregninger, når skibe skulle navigeres i forhold til solen, stjernerne og månen. Et eksempel er den tyske astronom og matematiker Wilhelm Schickard, der byggede en mekanisk regnemaskine, som kunne lægge tal sammen, trække fra, dividere og gange. Man har kun informationer om denne maskine fra et brev, som Schickard skrev til sin kollega astronomen Johannes Kepler i 1623.

Det var dog den kun 19-årige franskmand Blaise Pascal (1623-1663), der i 1642 begyndte at udvikle principperne til der senere skulle blive til den første regnemaskine. Pascal var søn af en skatteopkræver, og ønskede at opfinde en maskine, der ville lette faderens arbejdsmængde og gøre skatteberegningerne mere pålidelige. Efter tre års arbejde nåede Pascal frem til en prototype, han var tilfreds med, og i 1649 fik han kongeligt privilegium som Frankrigs eneste producent af regnemaskiner.

Trods dette blev Pascals opfindelse aldrig særlig udbredt, da den med datidens mekanik var både svær og dyr at fremstille.

Op gennem 1700-tallet voksede behovet for at kunne foretage komplicerede pålidelige matematiske beregninger. Et behov dels fremkaldt af voksende statsadministrative opgaver såsom mere kompliceret skatteopkrævning og befolkningsstatistik, og dels af ny teknik indenfor bygningskonstruktion og astronomi. Fagfolk besad derfor ofte over 100 bøger med tabeller, der skulle bistå dem i deres arbejde.

For at komme efterspørgslen i møde, og nedbringe antallet af fejl i statsadministration, tildelte den britiske regering i 1822 derfor den engelske matematiker og opfinder Charles Babbage (1791-1871) et stipendium til forskning i automatiseret beregning. Charles Babbage udviklede herefter, som den første ideen til en maskine, der på flere måder minder om nutidens computer. Babbage døbte sin opfindelse 'The Analytical Engine' – på dansk 'den analytiske maskine'. Ligesom vores computer havde den en styreenhed og en regneenhed kaldet the mill samt en hukommelsesenhed, the store. De tal, som skulle behandles blev repræsenteret som huller på et hulkort, mens resultatet eller outputtet blev repræsenteret af en graf eller en klokke. Selvom Charles Babbage arbejdede på sin maskine i næsten 50 år, lykkedes det ham dog aldrig til fulde at omsætte sine teorier til praktisk.

Babbages prototyper og artikler var dog nok til at inspirere en anden englænder, nemlig adelskvinden Ada Lovelace (1815-1852). Den 19-årige Lovelace mødte Babbage i 1833 til en demonstration af en hans prototypers regneevner. Ada Lovelace, der siden sin barndom havde beskæftiget sig med matematik var dybt fascineret af maskinen og dens potentiale. Hun indledte derfor et livslangt partnerskab med Babbage omkring udviklingen af analytiske maskiner.

I en af sine artikler beskriver Lovelace, hvordan kodning kunne appliceres til den analytiske maskine, så den ved siden af tal ville blive i stand håndtere og behandle symboler og bogstaver. Altså en form for computerprogram, og Ada Lovelace kan derfor beskrives som verdens første computerprogrammør. Samtidig var hun visionær, og hvor Charles Babbage kun så matematisk potential i sin maskine, forudså Lovelace at fremtidens analytiske maskiner ville være i stand til omsætte og behandle en lang række ting såsom musik, billeder og tekst i digital form. Noget, der først blev til virkelighed mere end 100 år efter hendes død.

Samtidige med at Babbage og Lovelace arbejdede med den analytiske maskine, begyndte de første serieproducerede regnemaskiner at komme på markedet under navnet arithmometer. Disse nye maskiner havde ikke samme grad af kompleksitet og udviklingspotentiale som Babbages model, men var ikke desto mindre grundlaget for langt mere effektive beregninger for virksomheder og stater.

Hvad var hulkortmaskinen?

Da Charles Babbage udtænkte sin analytiske maskine, var hulkort centralt, når maskinen skulle 'fodres’ med data, der skulle behandles, og når dataresultaterne skulle aflæses. Den hulkortteknik, som Babbage brugte i sin model, var inspireret af den franske videnskabsmand Joseph Marie Jacquard, der havde udviklet teknikken i 1700-tallet i forbindelse med konstruktionen af en mekanisk væv. På Jaquards væv aktiverede væveren kæder af hulkort via en pedal, som styrede hvilke kædetråde, der skulle løftes på væven. Dermed blev vævningen af stof mekaniseret, og når væveren skulle væve indviklede mønstre, undgik man de menneskelige fejl, som let kunne opstå, hvis væveren f.eks. glemte at løfte en kædetråd.

Hulkortmaskiner blev yderligere udviklet i sidste halvdel af 1800-tallet. I USA indførte man en maskine, da man skulle lave en optælling af befolkningen i 1890. Det var Herman Hollerith, der udviklede dette hulkortsystem til lejligheden. Alle oplysninger om den enkelte borger blev repræsenteret med huller på bestemte steder på et kort, og derefter kunne maskinen optælle hullerne på de forskellige positioner. Maskinerne aflæste hullerne med elektricitet, som slap gennem hullerne og påvirkede et tælleværk. På den måde kunne man hurtigt sortere informationer for forskellige befolkningsgrupper. Herman Hollerith grundlagde virksom heden The Tabulating Company, som senere hen udviklede sig til at blive IBM, en af de mest betydningsfulde virksomheder i computerens historie. Hulkortteknikken blev også brugt i de første elektroniske computere, inden man via tastatur og skærm kunne indtaste og aflæse data.

Hvad er logisk algebra?

Programmeringen af en computer er baseret på det binære talsystem, som er et talsystem udelukkende baseret på de to tal 1 og 0. Ifølge Datamuseum.dk var det den tyske matematiker Gottfried Leibniz, der allerede i 1703 skrev en afhandling om dette system. I stedet for at bruge 10-talsystemet anvendte han 2-talsystemet og brugte kun kombinationer af tallene 1 og 0 for at kunne repræsentere alle tal. Hans system var dog kompliceret, og det blev ikke brugt i praksis, før en engelsk matematiker ved navn George Boole i 1850’erne fastlagde nogle konkrete regneregler: Han lod 0 repræsentere den logiske værdi falsk og 1 værdien sand ud fra den logik, at alle logiske udsagn enten kun kan være falsk eller sand. Det er disse regneregler, som kaldes logisk algebra (se kilder).

I 1930’erne byggede amerikaneren Claude Shannon videre på Booles logik og påviste, at det elektriske kredsløb kunne sammenlignes med Booles symbollogik. De elektriske strømme i et elektrisk kredsløb kan signalere 1 og 0: Hvis der er strøm i et kredsløb har det tallet 1, og hvis der omvendt ikke er strøm i kredsløbet, signalerer det tallet 0. Denne logik er ifølge websiden Datamuseum.dk det centrale i computervidenskaben, fordi computerens komponenter kun har to tilstande (se kilder):

· en kontakt er tilsluttet eller afbrudt

· en ledning er strømførende eller ikke strømførende

· et felt på et hulkort er gennemhullet eller ikke hullet

· et felt på en computerdisk er magnetiseret den ene vej eller den anden vej

Den engelske matematiker Alan Turing udviklede på baggrund af denne logik en universel model for, hvordan alle computere virker – 'Turingmaskinen'. Modellen er ifølge artiklen ”Turing forvandlede computeren fra menneske til maskine” (se kilder) ikke en konkret maskine, men beskriver, hvordan computeren kan programmeres ud fra kombinationer af tallene 1 og 0. Turingmaskinen har altså intet med computerens fysiske komponenter at gøre, men er en abstrakt model af et computerprogram.

 

Videoklip om Alan Turing:

 

De første elektroniske computere

Hvornår blev de første computere opfundet?

De første computere blev udviklet under Anden Verdenskrig til at afkode fjendens kodemeddelelser, til at styre bomber og missiler og til at bygge flysimulatorer til flyvevåbnet. Både tyskerne og de allierede (USA og England) var optaget af computerteknologien som et middel til at optimere deres militære operationer. I USA blev forskningsprojekterne udført på store universiteter som Harvard Universitet, Massachusetts Institute of Technology (MIT) og Pennsylvania Universitet. Det blev ingeniører J. Presper Eckert og John W. Mauchly på Pennsylvania Universitet, der udviklede den maskine, som ofte bliver beskrevet som en af de første rigtige elektroniske computere, nemlig ENIAC-computeren (Engineering Numerical Integrator And Computer). EINAC var beregnet til brug i militærets missilprojekter og stod færdig i 1946.

Selvom ENIAC-computeren ofte bliver nævnt, som en af de første rigtige elektroniske computere, har der dog været stor diskussion om hvem, der havde ret til at tage patent på opfindelsen. Det endte med en retssag mellem virksomheden, der havde patent på ENIAC-computeren, og to andre computervirksomheder, Honeywell og CDC, der hævdede at arbejde ud fra en computermodel, som var blevet udviklet af matematikerne og fysikeren John Atanasoff allerede i 1939. Retten endte med at tilbagekalde ENIAC-patentet og afgjorde, at ingen kunne tage patent på computeren.

En anden opfindelse, der ofte fremhæves som en af de første elektroniske computere er Z3-computeren opfundet af tyskeren Konrad Zuse. Zuse havde siden 1938 arbejdet med at udvikle styresystemer til tyske missilvåben, og isoleret fra omverdenens forskning og viden byggede Zuze i 1941 en elektromekanisk computer i Berlin bestående af i alt 2000 relæer, kendt som Z3-computeren. Installationen blev ødelagt i 1943 under et bombardement, men i 1960’erne overværede Zuze en rekonstruktion af computeren, som stadig kan ses på Deutsches Museum i München.

Hvordan fungerer en computer?

Computeren fungerer i kraft af både de fysiske dele (hardware), og programmeringen af de data, som er gemt på computeren (software). Hardware er alle de fysiske dele af en computer: styreenheden, regneenheden, hukommelseslager og ydre enheder som f.eks. skærm, tastatur, printer og andet udstyr. Styreenheden og regneenheden kaldes tilsammen for centralenheden eller CPU’en efter det engelske udtryk central processing unit. Det er centralenheden, som modtager data og sørger for, at de sendes til behandling det rigtige sted eller gemmer dem på hukommelsesenheden. Med andre ord er det computerens forskellige programmer, som får enhederne til at arbejde samme og behandle de data, som er gemt i hukommelsesenheden.

En computers programmering eller software bliver udgjort af kombinationer mellem de to tal 1 og 0, som også bliver kaldt det binære talsystem. Alle data på computeren bliver udtrykt igennem et mønster af disse to tal. Det sker ved hjælp af computerens kredsløb, hvor 1 og 0 bliver signaleret ved svage elektriske strømme: Hvis der er strøm i et kredsløb har det tallet 1, og hvis der omvendt ikke er strøm i kredsløbet, signalerer det tallet 0.

Det var den engelske matematiker, Allan Turing, som i 1936 lavede en teoretisk model af denne måde at programmere en maskine på, og det er dette talsystem samt de tre fysiske enheder (styreenhed, regneenhed og hukommelsesenhed), som både de allerførste computere under Anden Verdenskrig og nutidens computere i princippet er baseret på. Den teknologiske udvikling har blot betydet, at hardwaren er blevet mindre, og softwaren mere effektiv.

Hvilke faser har der været i computerens udvikling?

Computerens historie bliver ofte inddelt i generationer alt efter, hvilken teknologi der blev brugt i maskinen særligt i forhold til, hvad der styrede det elektriske kredsløb i centralenheden (også kaldet CPU eller processor). Processoren er selve hjernen i computeren, og det er her programmeringen af computeren foregår. Udviklingen af processorens hardware har derfor været en forudsætning for, at computeren i dag kan køre langt flere og mere sofistikerede programmer, end de tidligste computere:

1. generation (1940-1956): elektronrør

2. generation (1956-1963): transistorer

3. generation (1964-1971): integrerede kredsløb

4. generation (1971- i dag): mikrochips

5. generation (2010-i dag): Parallel processing og super ledere

Den første generation er de computere, som blev udviklet under og efter Anden Verdenskrig som f.eks. ENIAC-computeren i 1946 og den senere UNIVAC-computer (Universal Automatic Computer) i 1951. Disse computere var så store, at de fyldte et helt rum, og de elektronrør, som de var bygget med, udviklede stor varme og måtte udskiftes jævnligt mellem beregningerne, fordi de blev så hurtigt overbelastet. Det nye ved UNIVAC var, at i stedet for den gamle ENIAC-computer, som brugte hulkort til at beskrive de data, som gik ind og ud af maskinen, brugte UNIVAC magnetstriber, som fyldte langt mindre.

Udviklingen af computere var i 1950’erne stadig målrettet og finansieret af militæret, rumfartsforskningen og de store offentlige kunder som f.eks. Det Amerikanske Folketællingsbureau, men UNIVAC-computeren i 1951 kickstartede også æraen, hvor computeren gjorde sit indtog i det amerikanske forretningsliv. I en reklamefilm fra midten af 50’erne demonstrerer udviklerne bag UNIVAC-computeren maskinens indretning og funktioner, og for første gang vakte en computer nysgerrighed i offentligheden (se kilder).

Problemerne med de ustabile elektronrør blev løst i anden generation (1956-1963), hvor de blev erstattet med en transistor, som udover at være mere driftsikker gjorde computeren betydeligt mindre og langt billigere at producere. Transistorerne blev videreudviklet i tredje generation (1964-1971), hvor man fandt ud af at kombinere flere transistorer i kredsløbet, hvilket gjorde computeren langt hurtigere og mere effektiv. Desuden blev monitoren (tidlig computerskærm) og keyboardet introduceret som de komponenter, brugeren skulle anvende, når computeren skulle sættes i gang med arbejdet, og når resultatet af arbejdet skulle aflæses.

Bogen ”Hulkort og EDB i Danmark” peger på modellerne fra anden og især tredje generation som computerens gennembrud, fordi udviklingen af transistorer og programmeringssprog betød, at computeren blev mindre, billigere, hurtigere og lettere at benytte. Hvor der højst blev produceret et par hundrede eksemplarer af en computer før 1959, blev produktionen nu større, fordi virksomheder kunne bruge de nye små, men effektive computere enten til at styre en industriel produktion eller til kontorarbejde som f.eks. bogholderi (se kilder).

Den fjerde generation af computere (1971 –) er de maskiner, som vi primært har i dag. De virker ved kraft en mikroprocessor, som består af kombinationer mellem flere tusinde transistorer, som er bygget ind i én enkelt chip. Disse computere kaldes ofte for mikrocomputere. Antallet af transistorer i den enkelte mikrochip ca. er fordoblet hvert år (eksponentiel udvikling). Det er den væsentligste årsag til den enormt hurtige udvikling, vi har set, fra køleskabsstore computere til iPhones og computere indbygget i f.eks. høreapparater. De to virksomheder IBM og Apple har domineret den teknologiske udvikling af denne generations fysiske komponenter (hardwaren). På software området har Microsoft domineret. Særligt på grund af deres operativsystemer, som er det software, som brugeren styrer computeren med.

Udviklingen af hardware, som gør computeren mindre, og af software, som gør computeren mere brugervenlig, er forudsætningen for, at pc’en (den personlige computer) blev populær i løbet af 1980’erne.

Den femte generation af computere (2010-) er maskiner som ved hjælp af parallel processing (evnen til at behandle forskellige stimuli samtidig) og superledende komponenter.

En helt ny generation af computere bliver kvantecomputeren, hvor man ikke længere er begrænset af kun to tilstande (0 og 1) og derfor kan foretage svimlende komplekse beregninger ”oven i hinanden”. Men lige nu finde der kun testmodeller i laboratorier på universiteter og i store firmaers forskningsafdelinger.

Der er også store forventninger til udviklingen af kunstig intelligens (AI), der dog ikke er en ny hardware-teknologi som de andre nævnte generationer. Kunstig intelligens er snarere en ny konceptuel tilgang til programmering.

Kunstig intelligens defineres som når en maskine besidder kognitive funktioner, vi normalt kun forbinder med mennesker, såsom evnen til selvstændigt at foretage problemløsning og indlæring af nye ting. Ideen om maskiner med ”kognitive funktioner” rækker tilbage til Allan Turings arbejde og den såkaldte Turing-test.

Teknologien omkring kunstig intelligens er stadig meget ny og under udvikling, om end vi allerede har fremstillet maskiner, der forstår sprog og kan respondere herpå. I fremtiden forudser man at computere vil have evnen til selvstændigt at organisere data og på baggrund heraf lære nye ting. Kunstig intelligens vil kunne bruges til f.eks. at udvikle selvkørende biler, maskiner, der kan bistå ved kirurgiske operationer, såvel som helt nye former for computerspil.

(For kronologisk oversigt over computerens udvikling se Del 4)

 

Ted-foredrag om kunstig intelligens (AI):

 

 

Hvornår opfandt man computerskærmen?

Omkring og efter Anden Verdenskrig var computerens input og output repræsenteret med hulkort. Input er de data eller informationer, som man fodrer maskinen med, mens output er de data eller facit, som maskinen kommer frem til efter at have behandlet datainput. Nogle maskiner brugte i stedet for hulkort ruller af papirtape. Mønstret af huller på papiret programmerede computeren til et bestemt job, og resultatet af computerens arbejde kom ud som et mønster af huller på lignende papir. En elektrisk skrivemaskine kunne så aflæse mønstret og udskrive resultatet som forståelig skrift. Den tyske matematiker, Konrad Zuzes Z3-computer fra 1941 beskrev sit output på et panel med forskellige lys, som ved at blinke indikerede, når computeren behandlede input.

Den elektroniske måde at repræsentere data på blev for alvor udviklet i løbet af 1960’erne, hvor en monitor kunne vise skriftlige resultater af computerens arbejde på en skærm.

I 1980’erne begyndte der at komme farve på computerskærmen. Udviklingen af farveskærmen skyldtes især en øget efterspørgsel hos brugerne af de personlige computere. Folk købte nemlig for det meste en computer på grund af de computerspil, som computeren kunne køre, og dermed blev der skabt et marked for at udvikle computerens grafiske udtryk til også at kunne vise farver og animationer. Maskinen Amiga blev i 1985 den første computer, som kunne vise animationer i fuld farve.

LCD-skærmen (Liquid Crystal Display) blev udviklet igennem 1980’erne og 1990’erne, især målrettet de bærbare computere, fordi LCD-skærmen fylder langt mindre end den oprindelige computerskærm, som bestod af et billedrør ligesom de oprindelige fjernsynsskærme. I dag bruges LCD-teknologien i fladskærme både til computere og fjernsyn.

Et slideshow med billeder fra PCWorld viser, hvordan computerdisplays har udviklet sig siden 1940’erne (se kilder).