cytaty z książek autora "Stuart Russell"
W 1949 roku jeden z pierwszych komputerów elektronicznych — ENIAC — obliczył rozwinięcie liczby π z dokładnością do 2037 miejsc dziesiętnych, według algorytmu zaprojektowanego przez G. Reitwiesnera. Poprawność tego obliczenia można było zweryfikować, wystarczyło udowodnić poprawność samego algorytmu i wielokrotnie powtórzyć obliczenie w celu wyeliminowania podejrzeń przypadkowych błędów samego komputera. Ważniejsze było jednak to, że owo wiarygodne obliczenie można było skonfrontować z tymi wykonanymi w erze przedkomputerowej — wspomniana aproksymacja Shanksa okazała się poprawna w 527 miejscach.
Nie wydaje się to niczym nadzwyczajnym, do momentu, gdy uświadomimy sobie rzeczoną jakościową stronę tego wydarzenia. Oto bowiem maszyna, fizycznie stanowiąca zespół niezliczonej liczby lamp, przekaźników, komutatorów i mnóstwa innych detali, faktycznie okazała się sędzią wydającym kategoryczny wyrok, oparty na niepodważalnym materiale dowodowym — czyli zweryfikowała coś, co wcześniej wydawało się absolutnie nieweryfikowalne! Nigdy wcześniej żadnemu sztucznemu tworowi nie udało się wniknąć tak dalece w obszar kompetencji, zarezerwowanych(wydawałoby się) wyłącznie dla istot rozumnych.
I wspaniale się stało, że wówczas we właściwym czasie, na właściwym miejscu znaleźli się matematyczni geniusze tamtych czasów, z Alanem Turingiem, Johnem von Neumannem i Norbertem Wienerem na czele. Ich zdaniem, skoro maszyna tak skutecznie wcieliła się w rolę arbitra, to być może równie pomyślnie mogłaby (częściowo) wyręczyć człowieka w myśleniu — no, może nie w sensie dosłownym, ale przynajmniej w zakresie naśladowania procesów biofizycznych i biochemicznych zachodzących w mózgu wtedy, gdy człowiek myśli. A w dalszej perspektywie Artificial Intelligence, w (skrócie AI), co w języku polskim przyjęto tłumaczyć
jako „sztuczna inteligencja” — być może „symulowana inteligencja” byłoby bardziej trafne, jednak nie sama nazwa jest najważniejsza, a to, co kryje się za nią sensu largo.
![prej7 - awatar](https://s.lubimyczytac.pl/upload/avatars/2011443/1039680-32x32.jpg)
Ktesibios z Aleksandrii (ok. 250 roku p.n.e.) zbudował pierwszą samokontrolującą się maszynę: zegar wodny z regulatorem utrzymującym stałe natężenie przepływu wody. Wynalazek ten wymusił zmianę myślenia o tym, co potrafią przedmioty — dotychczas uważano, że jedynie żywe istoty zdolne są do moderowania swego zachowania w reakcji na zmiany zachodzące w ich środowisku. Innymi przykładami maszyn wykorzystujących sprzężenie zwrotne dosamoregulacji mogą być: silnik parowy Jamesa Watta (1736 – 1819) ze stabilizatorem obrotów i termostat wynaleziony przez Cornelisa Drebbela (1572 – 1633), który jest także wynalazcą łodzi podwodnej. Matematyczną teorię systemów sterowania zapoczątkował James Clerk Maxwell (1868).
![prej7 - awatar](https://s.lubimyczytac.pl/upload/avatars/2011443/1039680-32x32.jpg)
Establishment intelektualny lat pięćdziesiątych XX wieku skłaniał się w większości ku przekonaniu, że „maszyna nigdy nie może wykonać X”( długa, sporządzona przez Turinga listę rzeczy, które można podstawić pod X). Badacze sztucznej inteligencji zaopiekowali się tą listą i raz po raz demonstrowali, jak mylące mogą być ludzkie przekonania, koncentrując się głównie na zadaniach zarezerwowanych dotąd dla ludzkiej inteligencji: grach, puzzlach, zadaniach matematycznych i testach IQ. John McCarthy nazwał ten okres „erą jazdy bez trzymanki”.
![prej7 - awatar](https://s.lubimyczytac.pl/upload/avatars/2011443/1039680-32x32.jpg)