Hvornår blev de første computere opfundet?
De første computere blev udviklet under Anden Verdenskrig til at afkode fjendens kodemeddelelser, til at styre bomber og missiler og til at bygge flysimulatorer til flyvevåbnet. Både tyskerne og de allierede (USA og England) var optaget af computerteknologien som et middel til at optimere deres militære operationer. I USA blev forskningsprojekterne udført på store universiteter som Harvard Universitet, Massachusetts Institute of Technology (MIT) og Pennsylvania Universitet. Det blev ingeniører J. Presper Eckert og John W. Mauchly på Pennsylvania Universitet, der udviklede den maskine, som ofte bliver beskrevet som en af de første rigtige elektroniske computere, nemlig ENIAC-computeren (Engineering Numerical Integrator And Computer). EINAC var beregnet til brug i militærets missilprojekter og stod færdig i 1946.
Selvom ENIAC-computeren ofte bliver nævnt, som en af de første rigtige elektroniske computere, har der dog været stor diskussion om hvem, der havde ret til at tage patent på opfindelsen. Det endte med en retssag mellem virksomheden, der havde patent på ENIAC-computeren, og to andre computervirksomheder, Honeywell og CDC, der hævdede at arbejde ud fra en computermodel, som var blevet udviklet af matematikerne og fysikeren John Atanasoff allerede i 1939. Retten endte med at tilbagekalde ENIAC-patentet og afgjorde, at ingen kunne tage patent på computeren.
En anden opfindelse, der ofte fremhæves som en af de første elektroniske computere er Z3-computeren opfundet af tyskeren Konrad Zuse. Zuse havde siden 1938 arbejdet med at udvikle styresystemer til tyske missilvåben, og isoleret fra omverdenens forskning og viden byggede Zuze i 1941 en elektromekanisk computer i Berlin bestående af i alt 2000 relæer, kendt som Z3-computeren. Installationen blev ødelagt i 1943 under et bombardement, men i 1960’erne overværede Zuze en rekonstruktion af computeren, som stadig kan ses på Deutsches Museum i München.
Hvordan fungerer en computer?
Computeren fungerer i kraft af både de fysiske dele (hardware), og programmeringen af de data, som er gemt på computeren (software). Hardware er alle de fysiske dele af en computer: styreenheden, regneenheden, hukommelseslager og ydre enheder som f.eks. skærm, tastatur, printer og andet udstyr. Styreenheden og regneenheden kaldes tilsammen for centralenheden eller CPU’en efter det engelske udtryk central processing unit. Det er centralenheden, som modtager data og sørger for, at de sendes til behandling det rigtige sted eller gemmer dem på hukommelsesenheden. Med andre ord er det computerens forskellige programmer, som får enhederne til at arbejde samme og behandle de data, som er gemt i hukommelsesenheden.
En computers programmering eller software bliver udgjort af kombinationer mellem de to tal 1 og 0, som også bliver kaldt det binære talsystem. Alle data på computeren bliver udtrykt igennem et mønster af disse to tal. Det sker ved hjælp af computerens kredsløb, hvor 1 og 0 bliver signaleret ved svage elektriske strømme: Hvis der er strøm i et kredsløb har det tallet 1, og hvis der omvendt ikke er strøm i kredsløbet, signalerer det tallet 0.
Det var den engelske matematiker, Allan Turing, som i 1936 lavede en teoretisk model af denne måde at programmere en maskine på, og det er dette talsystem samt de tre fysiske enheder (styreenhed, regneenhed og hukommelsesenhed), som både de allerførste computere under Anden Verdenskrig og nutidens computere i princippet er baseret på. Den teknologiske udvikling har blot betydet, at hardwaren er blevet mindre, og softwaren mere effektiv.
Hvilke faser har der været i computerens udvikling?
Computerens historie bliver ofte inddelt i generationer alt efter, hvilken teknologi der blev brugt i maskinen særligt i forhold til, hvad der styrede det elektriske kredsløb i centralenheden (også kaldet CPU eller processor). Processoren er selve hjernen i computeren, og det er her programmeringen af computeren foregår. Udviklingen af processorens hardware har derfor været en forudsætning for, at computeren i dag kan køre langt flere og mere sofistikerede programmer, end de tidligste computere:
1. generation (1940-1956): elektronrør
2. generation (1956-1963): transistorer
3. generation (1964-1971): integrerede kredsløb
4. generation (1971- i dag): mikrochips
5. generation (2010-i dag): Parallel processing og super ledere
Den første generation er de computere, som blev udviklet under og efter Anden Verdenskrig som f.eks. ENIAC-computeren i 1946 og den senere UNIVAC-computer (Universal Automatic Computer) i 1951. Disse computere var så store, at de fyldte et helt rum, og de elektronrør, som de var bygget med, udviklede stor varme og måtte udskiftes jævnligt mellem beregningerne, fordi de blev så hurtigt overbelastet. Det nye ved UNIVAC var, at i stedet for den gamle ENIAC-computer, som brugte hulkort til at beskrive de data, som gik ind og ud af maskinen, brugte UNIVAC magnetstriber, som fyldte langt mindre.
Udviklingen af computere var i 1950’erne stadig målrettet og finansieret af militæret, rumfartsforskningen og de store offentlige kunder som f.eks. Det Amerikanske Folketællingsbureau, men UNIVAC-computeren i 1951 kickstartede også æraen, hvor computeren gjorde sit indtog i det amerikanske forretningsliv. I en reklamefilm fra midten af 50’erne demonstrerer udviklerne bag UNIVAC-computeren maskinens indretning og funktioner, og for første gang vakte en computer nysgerrighed i offentligheden (se kilder).
Problemerne med de ustabile elektronrør blev løst i anden generation (1956-1963), hvor de blev erstattet med en transistor, som udover at være mere driftsikker gjorde computeren betydeligt mindre og langt billigere at producere. Transistorerne blev videreudviklet i tredje generation (1964-1971), hvor man fandt ud af at kombinere flere transistorer i kredsløbet, hvilket gjorde computeren langt hurtigere og mere effektiv. Desuden blev monitoren (tidlig computerskærm) og keyboardet introduceret som de komponenter, brugeren skulle anvende, når computeren skulle sættes i gang med arbejdet, og når resultatet af arbejdet skulle aflæses.
Bogen ”Hulkort og EDB i Danmark” peger på modellerne fra anden og især tredje generation som computerens gennembrud, fordi udviklingen af transistorer og programmeringssprog betød, at computeren blev mindre, billigere, hurtigere og lettere at benytte. Hvor der højst blev produceret et par hundrede eksemplarer af en computer før 1959, blev produktionen nu større, fordi virksomheder kunne bruge de nye små, men effektive computere enten til at styre en industriel produktion eller til kontorarbejde som f.eks. bogholderi (se kilder).
Den fjerde generation af computere (1971 –) er de maskiner, som vi primært har i dag. De virker ved kraft en mikroprocessor, som består af kombinationer mellem flere tusinde transistorer, som er bygget ind i én enkelt chip. Disse computere kaldes ofte for mikrocomputere. Antallet af transistorer i den enkelte mikrochip ca. er fordoblet hvert år (eksponentiel udvikling). Det er den væsentligste årsag til den enormt hurtige udvikling, vi har set, fra køleskabsstore computere til iPhones og computere indbygget i f.eks. høreapparater. De to virksomheder IBM og Apple har domineret den teknologiske udvikling af denne generations fysiske komponenter (hardwaren). På software området har Microsoft domineret. Særligt på grund af deres operativsystemer, som er det software, som brugeren styrer computeren med.
Udviklingen af hardware, som gør computeren mindre, og af software, som gør computeren mere brugervenlig, er forudsætningen for, at pc’en (den personlige computer) blev populær i løbet af 1980’erne.
Den femte generation af computere (2010-) er maskiner som ved hjælp af parallel processing (evnen til at behandle forskellige stimuli samtidig) og superledende komponenter.
En helt ny generation af computere bliver kvantecomputeren, hvor man ikke længere er begrænset af kun to tilstande (0 og 1) og derfor kan foretage svimlende komplekse beregninger ”oven i hinanden”. Men lige nu finde der kun testmodeller i laboratorier på universiteter og i store firmaers forskningsafdelinger.
Der er også store forventninger til udviklingen af kunstig intelligens (AI), der dog ikke er en ny hardware-teknologi som de andre nævnte generationer. Kunstig intelligens er snarere en ny konceptuel tilgang til programmering.
Kunstig intelligens defineres som når en maskine besidder kognitive funktioner, vi normalt kun forbinder med mennesker, såsom evnen til selvstændigt at foretage problemløsning og indlæring af nye ting. Ideen om maskiner med ”kognitive funktioner” rækker tilbage til Allan Turings arbejde og den såkaldte Turing-test.
Teknologien omkring kunstig intelligens er stadig meget ny og under udvikling, om end vi allerede har fremstillet maskiner, der forstår sprog og kan respondere herpå. I fremtiden forudser man at computere vil have evnen til selvstændigt at organisere data og på baggrund heraf lære nye ting. Kunstig intelligens vil kunne bruges til f.eks. at udvikle selvkørende biler, maskiner, der kan bistå ved kirurgiske operationer, såvel som helt nye former for computerspil.
(For kronologisk oversigt over computerens udvikling se Del 4)
Ted-foredrag om kunstig intelligens (AI):
Hvornår opfandt man computerskærmen?
Omkring og efter Anden Verdenskrig var computerens input og output repræsenteret med hulkort. Input er de data eller informationer, som man fodrer maskinen med, mens output er de data eller facit, som maskinen kommer frem til efter at have behandlet datainput. Nogle maskiner brugte i stedet for hulkort ruller af papirtape. Mønstret af huller på papiret programmerede computeren til et bestemt job, og resultatet af computerens arbejde kom ud som et mønster af huller på lignende papir. En elektrisk skrivemaskine kunne så aflæse mønstret og udskrive resultatet som forståelig skrift. Den tyske matematiker, Konrad Zuzes Z3-computer fra 1941 beskrev sit output på et panel med forskellige lys, som ved at blinke indikerede, når computeren behandlede input.
Den elektroniske måde at repræsentere data på blev for alvor udviklet i løbet af 1960’erne, hvor en monitor kunne vise skriftlige resultater af computerens arbejde på en skærm.
I 1980’erne begyndte der at komme farve på computerskærmen. Udviklingen af farveskærmen skyldtes især en øget efterspørgsel hos brugerne af de personlige computere. Folk købte nemlig for det meste en computer på grund af de computerspil, som computeren kunne køre, og dermed blev der skabt et marked for at udvikle computerens grafiske udtryk til også at kunne vise farver og animationer. Maskinen Amiga blev i 1985 den første computer, som kunne vise animationer i fuld farve.
LCD-skærmen (Liquid Crystal Display) blev udviklet igennem 1980’erne og 1990’erne, især målrettet de bærbare computere, fordi LCD-skærmen fylder langt mindre end den oprindelige computerskærm, som bestod af et billedrør ligesom de oprindelige fjernsynsskærme. I dag bruges LCD-teknologien i fladskærme både til computere og fjernsyn.
Et slideshow med billeder fra PCWorld viser, hvordan computerdisplays har udviklet sig siden 1940’erne (se kilder).