Craig Silverstein, director of technology, Google säger:
"I wish computer search engines would become as intelligent as human searchers in 2004.
"What probably will actually happen is they'll just get better at faking it. Artificial intelligence is very, very hard. Luckily, sometimes faking it is good enough."
Det är ju ett gammalt tvisteämne i samband med diskussioner om artificiell intelligens, inte minst i samband med Turing-testet: Hur vet man att en maskin är "intelligent"? Silverstein-citatet ovan ger en återigen anledning att fundera över, om det spelar någon roll huruvida en maskin "verkligen" är intelligent eller inte. Gör den något som människor traditionellt sett brukat göra, som att samla och utvärdera information, snabbt och effektivt - såsom Google allt bättre lyckas med - ja då uppvisar dessa maskiner en hög grad av praktisk "intelligens", i sitt sammanhang. Och frågan om deras "reella intelligens" är då på sätt och vis akademisk.
Från praktisk synpunkt spelar det ju ingen roll att det är "fusk" (enligt någon sorts ideal måttstock). Google, rätt använd, är en enorm "intelligens"-förstärkare redan nu.
Dylika fenomen bör i högre grad uppmärksammas i diskussioner om artificiell intelligens. I framtidsspekulationer av mer eller mindre seriöst slag, tänker man alltför ofta i termer av superintelligenta robotar som får alla att häpna. Men långt innan dess har vi blivit totalt beroende av teknologier som Google. I internetmiljön är man helt enkelt "dum" om man inte utnyttjar sökmotorer kreativt. Mycket av den vane internetanvändarens intelligens är m a o redan nu fast förankrad i kvasiintelligenta program.
Långt innan Einstein-roboten träder fram, har de hel- eller halvdumma maskinerna redan ockuperat den samhälleliga arenan, utan vare sig buller eller bång.
/Per
Comments
You can follow this conversation by subscribing to the comment feed for this post.