Fifth Generation Computers , også kjent under forkortelsen FGCS (for Fifth Generation Computer Systems ), var et japansk -laget prosjekt som startet i 1981 . Målet var utviklingen av en ny klasse datamaskiner som ville bruke kunstig intelligens - teknikker og teknologier både på maskinvare- og programvarenivå , [ 1 ] ved å bruke PROLOG ]4[]3[]2[-språketmaskinspråk og ville være i stand til å løse komplekse problemer, for eksempel automatisk oversettelse fra ett naturlig språk til et annet (fra japansk til engelsk, for eksempel). Som en måleenhet for ytelsen og funksjonene til disse datamaskinene ble antallet LIPS ( Logical Inferences Per Second ) som var i stand til å utføre under utførelsen av de forskjellige programmerte oppgavene brukt. Ulike typer VLSI ( Very Large Scale Integration ) arkitekturer ble brukt til utviklingen.
Prosjektet varte i elleve år, men oppnådde ikke de forventede resultatene: de nåværende datamaskinene fortsatte slik, siden det er mange tilfeller der det enten er umulig å utføre en parallellisering av det, eller når det først er utført, er det ikke Du ser ingen forbedring, eller i verste fall er det tap av ytelse. Det må være klart at for å utføre et parallelt program må vi til å begynne med identifisere deler i det som kan kjøres separat på forskjellige prosessorer . I tillegg brukes de andre generasjonene nesten ikke lenger, det er viktig å påpeke at et program som kjøres sekvensielt må motta en rekke modifikasjoner slik at det kan kjøres parallelt, det vil si at det først ville vært interessant å studere om arbeid som dette medfører kompenseres med forbedring av utførelsen av oppgaven etter parallellisering.
Gjennom flere generasjoner siden 1950 -tallet hadde Japan vært den neste når det gjelder å fremme og bygge datamaskiner basert på modellene utviklet i USA og Storbritannia . Japan , gjennom sitt departement for økonomi, handel og industri (MECI) bestemte seg for å bryte med denne følge-leder-naturen og begynte på midten av 1970-tallet å finne veien til en fremtid i dataindustrien . Japan Information Processing and Development Center ( JCDPI) fikk i oppdrag å gjennomføre en plan for å utvikle prosjektet. I 1979 tilbød de en treårskontrakt for mer dyptgående studier med felles deltakelse fra teknologiindustribedrifter og akademiske institusjoner, etter oppfordring fra Hazime Hiroshi . Det var i denne perioden begrepet «femte generasjons datamaskin» kom i bruk.
I 1982, på initiativ av MITI, ble det holdt en internasjonal konferanse, hvor Kazuhiro Fuchi kunngjorde forskningsprogrammet, og 14. april 1982 bestemte regjeringen å offisielt lansere prosjektet, og opprettet Institute for New .Generation Computer Technology eller ICOT for akronymet på engelsk), under ledelse av Fuchi, [ 5 ] som skulle etterfølge ham i stillingen som direktør for Tohru Moto-Oka- instituttet , og med deltakelse av forskere fra forskjellige japanske selskaper dedikert til maskinvare og programvareutvikling, inkludert Fujitsu , NEC , Matsushita , Oki, Hitachi , Toshiba og Sharp . [ 6 ]
Hovedfeltene for undersøkelsen av dette prosjektet var opprinnelig:
På grunn av oppstyret forårsaket av at japanerne hadde suksess innen elektronikk på 1970 -tallet , og praktisk talt gjorde det samme på bilområdet i løpet av 1980 -tallet , hadde femte generasjonsprosjektet mye suksess .rykte blant andre land. [ 7 ]
Slik var virkningen at parallelle prosjekter ble opprettet. I USA , Microelectronics and Computer Technology Corporation [ 8 ] og Strategic Computing Initiative ; på europeisk side, i Storbritannia var det ALVEY , [ 8 ] og i resten av Europa var reaksjonen kjent som ESPRIT ( European Strategic Program for Research in Information Technology , på spansk European Strategic Program for Information Technology Research ). [ 9 ]
Bortsett fra reaksjonene på institusjonsnivå, begynte det på et mer populært nivå å bli kjent i Vesten takket være utseendet til bøker der prosjektet ble diskutert mer eller mindre direkte eller ble sitert [ 10 ], men hovedsakelig av artikler som dukket opp. i magasiner dedikert til datamaskinentusiaster; [ 11 ] I august 1984-utgaven av American Creative Computing ble det således publisert en artikkel som tok for seg temaet "Den femte generasjonen: Japans datamaskinutfordring til verden" [ 12 ] (oversatt, The Fifth Generasjon: Den japanske datautfordringen til verden ). I den spansktalende verden kan for eksempel magasinet MicroHobby siteres , som i juli 1985 publiserte [ 13 ] et intervju med Juan Pazos Sierra, PhD i informatikk og på den tiden knyttet til fakultetet for informatikk ved universitetet fra Madrid , der han kort beskrev prosjektet som:
...et japansk prosjekt som har noen kuriøse og spesielle egenskaper; For det første er målet å bygge en datamaskin basert på VLSI-teknologi, med en ikke-Von Neumann-arkitektur og som vil ha logisk programmering, PROLOG-språket, som programvarekjernen, for å endelig bygge Expert Systems på toppen av alt dette .Og angående dets potensielle resultater uttrykte han en relativt optimistisk mening, i tråd med spådd av arrangørene av prosjektet. Derfor, på spørsmål om det var oppnådd noen resultater i det, svarte han:
Ingenting for øyeblikket. Det som allerede eksisterer kommer til å bli kraftig utviklet, nye teknologier vil dukke opp, nye ekspertsystemer og forskning vil bli enormt styrket av den enorme pengeinnsprøytingen som femte generasjonsprosjektet har betydd for kunstig intelligens.På sin side vurderte Román Gubern i sitt essay fra 1987 The Computerized Ape at:
... femte generasjons datamaskin er et sant forsøk på teknologisk duplisering av intellektet til Homo sapiens . [ 14 ]Som et av sluttproduktene til prosjektet ble fem parallelle inferensmaskiner (PIM) utviklet, kalt PIM/m, PIM/p, PIM/i, PIM/k og PIM/c , som har som en av hovedkarakteristikkene 256 elementer av Nettverkskoblet prosessering. Prosjektet produserte også verktøy som kunne brukes med disse systemene, slik som Kappa parallelle databasestyringssystem , HELIC-II juridiske resonnementssystem , Quixote - programmeringsspråket , en hybrid mellom deduktive databaseorienterte objekter og logisk programmeringsspråk [ 17 ] og den automatiske teorembeviseren MGTP .
Elleve år etter starten av prosjektet samsvarte ikke den store summen av penger, infrastruktur og ressurser som ble investert i det forventede resultatet, og det ble avsluttet uten å ha nådd målene. William Zachman kritiserte prosjektet et år før det ble fullført, og argumenterte:
Det skader utviklingen av AI-applikasjoner; med AI spiller systemet ingen rolle, så lenge det ikke finnes kraftige slutningsmekanismer. Det er allerede mange AI-lignende applikasjoner, og jeg venter på ankomsten av den kraftige inferensmotoren, så femte generasjons datamaskiner er en feil. [ 18 ]Den foreslåtte maskinvaren og programvareutviklingen hadde ingen plass i datamarkedet, som hadde utviklet seg siden prosjektet ble lansert, og hvor systemer for generelle formål nå kunne ta over de fleste oppgavene som ble foreslått som opprinnelige mål for femte generasjons maskiner, i likhet med hva som hadde skjedd i tilfellet med det potensielle markedet for Lisp-maskiner , der systemer for å lage regelbaserte ekspertsystemer som CLIPS , implementert på vanlige datamaskiner, var blitt Disse dyre maskinene er unødvendige og utdaterte. [ 19 ]
På den annen side, innenfor tvistene mellom de forskjellige grenene av kunstig intelligens , var det japanske prosjektet basert på paradigmet basert på logisk programmering og deklarativ programmering , dominerende etter utgivelsen i 1969 av Marvin Minsky og Seymour Papert av boken Perceptrons , som ville gradvis gå i bakgrunnen til fordel for programmering av kunstige nevrale nettverk (ANN) etter utgivelsen i 1986 av McClelland og Rumelhart av boken Parallel Distributed Processing , som sammen med sine sparsomme resultater bidro til at prosjektet til den femte generasjonen falt i glemselen på slutten i 1993.
Institute for New Generation Computer Technology (ICOT) ble omdøpt i 1995 til Research Institute for Advanced Information Technology (AITEC), et senter som ble stengt i 2003, og overførte alle ressursene til Advanced IT Research Group (AITRG), avhengig av Department JIPDEC Investigation.
Sekvensielle maskiner PSI ( Personal Sequential Inference machine ) og CHI ( Co-operative High-performance Inference machine ):
Parallelle maskiner PIM ( Parallel Inference Machine ):
Relasjonsdatabasemotor:
Sekvensielle maskiner:
Parallelle maskiner:
Parallelle maskiner: