Sztuczna Inteligencja

o kulturze i sztuce innej niż fotograficzna
ODPOWIEDZ
Awatar użytkownika
Owain
Nasz Czelnik
Posty: 14707
Rejestracja: 11.2016

Sztuczna Inteligencja

#1

Post autor: Owain »

Czy badania nad sztuczną inteligencją rozwijają i wzbogacają filozoficzną teorię poznania?



Gdy komputer czynimy inteligentnym,
pomaga nam to zrozumieć,
na czym polega inteligencja.


P. H.Winston
w książce
„Artificial Intelligence”


Ktokolwiek skonstruuje myślącą istotę, będzie miał wszystkie problemy i obowiązki Boga.


Sir Roger Penrose
w wywiadzie w „Wiedzy i Życiu”, nr 9/2001
Wstęp

Od zarania dziejów, od początku ludzkiej cywilizacji człowiek marzył o stworzeniu sztucznego życia na swój obraz i podobieństwo. Marzenia te miały swoje odzwierciedlenie w mitach powołujących byty bądź to celem podporządkowania sobie, wyręczania w ciężkiej pracy (średniowieczny hebrajski mit o Golemie) bądź też z tęsknoty za miłością (mit o Pigmalionie czy Laodamii). W czasach współczesnych rolę mitów przejęła literatura grozy, później literatura science fiction, zaś twory powołane z gliny zastąpione zostały skomplikowanymi maszynami – robotami.
To z robotami, które nazwę swą biorą od tytułu sztuki Karola Capka, wiąże się najpierw marzenie, później zaś realizacja stworzenia nie tylko bezmózgiej, pracowitej maszyny ale także istoty myślącej, inteligentnej, ba, nawet zabawnej – jeśli weźmiemy pod uwagę postać złotego robota C3PO z sagi „Gwiezdne Wojny”. Równocześnie to właśnie literatura fantastyczna pokazała nam po raz pierwszy zagrożenia towarzyszące tworzeniu sztucznego umysłu. Niebezpieczna tancerka-robot w filmie „Metropolis” z 1926 r., zagrażający ludzkości Terminator w z filmu Jamesa Camerona czy też słynny Hal 9000, genialny, lecz podły komputer pokładowy z „Odysei Kosmicznej” przestrzegają człowieka przed wchodzeniem w rolę stwórcy i kreacją bytów świadomych, które mogą zbuntować się przeciw człowiekowi. W wieku dwudziestym, rozwój techniki a szczególnie informatyki oraz powszechna komputeryzacja pozwoliły na stworzenie – choć dalekich od swych pierwowzorów książkowych – systemów, maszyn czy nawet robotów, które są w stanie wykonywać pewne funkcje myślowe przypisane do tej pory jedynie człowiekowi. Oczywiście najprostszą sprawą było powierzenie „mózgowi elektronicznemu” zadań matematycznych polegających na szybkim liczeniu tego, na co człowiek potrzebowałby dużo więcej czasu. Jednak naukowcy postawili sobie dużo bardziej skomplikowane zadanie, Otóż wraz z rozwojem neurochirurgii, nanotechnologii, wraz z poznaniem budowy i funkcji ludzkiego mózgu zapragnęli oni odtworzyć nie tylko proste, algorytmiczne czynności naszych umysłów, ale poszli dalej, by odwzorować to coś, co stanowi o naszym człowieczeństwie – nasze myślenie, naszą inteligencję.
Równocześnie z pojawieniem się człowieczych marzeń o sztucznych bytach, starożytni filozofowie rozpoczęli dyskusję nad tym, czym jest ludzkie poznanie, jaka jest jego geneza, jakie są jego warunki, czym jest podmiot, przedmiot i akt poznania, czy istnieją granice poznania. Od czasów Platona i Arystotelesa, poprzez czasy Kartezjusza i Locke’a, aż po dzisiejszych myślicieli różnie odpowiadano na powyższe pytania, choć zawsze dyskusja ta pozostawała w sferze teorii, dywagacji czysto abstrakcyjnych i z pewnością niematerialnych. Dziś, drogi filozofów i naukowców zbiegają się tam, gdzie zaczynają być stawiane te same pytania, pytania o istotę, sens, wzór ludzkiego myślenia. Być może ich współpraca, a także wkład psychologów, neurobiologów, fizjologów, lingwistów i specjalistów z wielu innych dziedzin zaowocuje. I być może wtedy, kiedy na świecie powstanie pierwszy w pełni inteligentny acz sztuczny twór, wtedy też ta szara, półtorakilogramowa masa w naszych głowach wreszcie zrozumie sama siebie. Wreszcie, bo jesteśmy ciągle świadkami pewnego paradoksu, gdyż nasze narzędzie poznawcze, nasz mózg, służący nam od tysięcy lat do poznawania świata, zaprowadził nas w kosmos, zapanował nad żywiołami i poznał na wskroś strukturę materii i prawa fizyki – lecz nigdy do końca nie poznał zasad własnego funkcjonowania.

Garść definicji

By móc odpowiedzieć na pytanie czy prace nad sztuczną inteligencją wnoszą coś do filozoficznej teorii poznania, musimy uświadomić sobie czymże jest sztuczna inteligencja a także inteligencja w ogóle, jakie są podstawowe, konieczne do spełnienia kryteria, by sztuczny umysł nazwać „inteligentnym”, a także należy przypomnieć jak ewoluowała teoria poznania, jakie były zapatrywania na nasze postrzeganie świata zewnętrznego oraz jak stawiano wobec siebie „ducha” i „materię”.
Według Nowej Powszechnej Encyklopedii PWN, inteligencja to cecha umysłu odpowiadająca za sprawność w zakresie myślenia, rozwiązywania problemów i innych czynności poznawczych.
Próby psychologicznego zdefiniowania istoty inteligencji i określania jej poziomu podejmowano od XIX wieku. Pionierem badań nad inteligencją był brytyjski przyrodnik, antropolog i lekarz F. Galton, który uważał że jest to swoista energia psychiczna, pozwalająca na dokładne odróżnianie wrażeń zmysłowych i szybką reakcję na bodźce. Przedstawienie wyników testowego pomiaru inteligencji za pomocą tzw. ilorazu inteligencji zaproponował w 1912 r. niemiecki psycholog W. Stern. Sformułował on także definicję inteligencji jako zdolności przystosowywania się do nowych wymagań przez odpowiednie wykorzystanie środków myślenia. Zgodnie z tą definicją inteligencja ujawnia się w nowych sytuacjach, jej istotę stanowi szeroko rozumiane myślenie, a funkcja życiowa polega na specyficznie ludzkim sposobie przystosowania się do otoczenia. Według definicji zaproponowanej przez angielskiego psychologa C. Spearman'a, inteligencja to zdolność ogólna do spostrzegania zależności i wyciągania wniosków. Psycholog D.Wechsler, twórca skali inteligencji (1939 r.) uważał, że inteligencja to ogólna zdolność jednostki do celowego działania, racjonalnego myślenia i efektywnego radzenia sobie w otaczającym ją środowisku.
Jak widać na podstawie powyższych definicji, inteligencja to coś więcej niż matematyczne rachunki, nawet na dużych liczbach i w skomplikowanych układach.
Z kolei jednorodna definicja sztucznej inteligencji jest trudna do określenia. Według jednej sztuczna inteligencja (ang. AI - Artificial Intelligence) to dział informatyki zajmujący się rozwiązywaniem problemów, które wymagają umiejętności wnioskowania oraz zdolności do samouczenia ze względu na brak algorytmu rozwiązania. Znajduje szerokie zastosowanie m.in. w systemach eksperckich, robotyce, rozpoznawaniu obrazu, syntezie mowy, przetwarzaniu języka sztucznego i naturalnego.
Często spotkać można również termin A.I. jako określenie pewnej cechy, przymiotu który posiada bądź nie dana maszyna czy program komputerowy.
O sztucznej inteligencji w rozumieniu pospolitym mówić możemy przy określaniu inteligentnych gier komputerowych, broni czy nawet systemie włączania wycieraczek w samochodzie. Mamy wtedy na myśli tzw. „słabą sztuczną inteligencję”, która polega na budowie systemów wspomagających człowieka w trudnych zadaniach w wielu dziedzinach przemysłu, budownictwa, projektowania, w rolnictwie, ochronie środowiska, usługach komercyjnych takich jak ekonomia, bankowość i finanse, techniki informacyjne, w medycynie, edukacji, badaniach naukowych, badaniach kosmosu, w technice wojskowej, i innych. Nawet pisząc w tej chwili ten tekst w edytorze tekstów mam do czynienia z pewną formą „słabej sztucznej inteligencji”, kiedy popełniwszy literówkę najadę kursorem na podkreślone słowo, program komputerowy „inteligentnie” wskaże mi kilka – w jego ocenie najbardziej prawdopodobnych – słów, z których jedno będzie tym pożądanym.
Natomiast termin „silna sztuczna inteligencja” postuluje możliwość stworzenia systemu rzeczywiście inteligentnego, zdolnego komunikować się z ludźmi bezpośrednio w języku naturalnym, rozumieć różne niuanse i subtelności, przyjmować
polecenia i planować ich samodzielną realizacje, i przede wszystkim zdolnego do racjonalnego myślenia w warunkach złożoności naszego świata.
Sztuczna inteligencja jako dziedzina nauki przeżywała okresy wzlotów i upadków, którym nadano nawet nazwy. Na początku była era prehistoryczna: od maszyny analitycznej Charlesa Babbage'a (1842 r.) do około 1960 roku. Po niej nastąpił okres romantyzmu (lata 1960-1965), kiedy przewidywano, że sztuczna inteligencja osiągnie swoje cele w ciągu kilku lat. Gdy jednak się to nie udało, nadszedł okres ciemności 1965-1970, w którym znikł entuzjazm i pojawiły się głosy bardzo krytyczne. W okresie odrodzenia - lata 1970-1975 - zaczęto budować pierwsze systemy eksperckie wykorzystywane w praktyce. Później był okres partnerstwa: 1975-1980 - do badań nad sztuczną inteligencją wprowadzono metody kognitywistyczne wywodzące się z psychologii. W końcu nadszedł okres komercjalizacji: 1980-1990, w którym programy sztucznej inteligencji zaczęto sprzedawać komercyjnie.
Termin Artificial Intelligence został wprowadzony w 1956 roku przez Johna McCarthy’ego. Stanowił on na początku nazwę dwumiesięcznej konferencji, która odbyła się w Darmouth College w New Hampshire, a następnie przerodził się w nazwę pełnej, dojrzałej dyscypliny naukowej.
Rozkwit sztucznej inteligencji jako nauki datowany jest na lata 50-te dwudziestego wieku a za jej ojca uważa się angielskiego matematyka Alana Turinga, który prócz położenia wielu podwalin teoretycznych pod rozwój dziedziny, opracował także słynny test, nazwany od jego nazwiska „testem Turinga”. Test ten ma definitywnie określić czy dana maszyna lub program komputerowy posiada cechy sztucznej inteligencji i polega on na bardzo prostych zasadach. Otóż niezależny obserwator, tzw. sędzia, przygląda się rozmowie prowadzonej przez rozmówcę z kilkoma bądź jednym interlokutorem zlokalizowanym w innym, odizolowanym pomieszczeniu (rozmowa oczywiście odbywa się drogą elektroniczną), a zadaniem „sędziego” jest rozpoznanie czy rozmówca prowadzi dialog z maszyna czy człowiekiem. Jeśli uzna że rozmówcami byli tylko ludzie a w odizolowanym pomieszczeniu znajdowała się maszyna, takie urządzenie (program komputerowy) przechodzi test Turinga. Pomimo, iż od opracowania tego testu upłynęło już ponad pół wieku a corocznie wyznaczana jest wysoka nagroda za sukces, jeszcze nikt nie opracował urządzenia mogącego przejść ten test i „oszukać” człowieka.
Należy jednak stanowczo nadmienić, iż samo „zaliczenie” testu Turinga nie jest podstawowym celem badaczy pracujących nad sztuczną inteligencją. W rozumieniu „słabej” A.I. istnieje dziś wiele gałęzi nauki czy zastosowań które składają się na sztuczną inteligencję, pomimo że nie tworzą wspólnej „silnej” A.I. – programu kumulującego wszystkie te cechy. Zatem do swoistych „części składowych” sztucznej inteligencji, kierunków w których następuje jej rozwój zaliczyć możemy:
- systemy logiki „rozmytej”, czyli takie programy, które będą umiały podjąć decyzję przy niewystarczającej ilości danych wejściowych, a posłużą się czymś na kształt ludzkiej intuicji,
- sieci neuronowe – funkcjonujące już w wielu zastosowaniach praktycznych, systemy urządzeń lub programów współpracujące ze sobą przy analizie danych połączone (stąd ich nazwa) na zasadzie podobnej jak komórki nerwowe w ludzkim mózgu. Współdziałanie siedzi neuronowych polega na weryfikacji wpływających do sieci danych przez wyspecjalizowane elementy całego systemu, weryfikowanie ich, sumowanie, przeliczanie i przekazywanie dalej. Sieci neuronowe, pomimo że każda jednostka budująca je nie cechuje się „inteligencją” w rozumieniu „silnej” definicji A.I., mają największe szanse stać się w pełni inteligentne dzięki swoistej umiejętności współpracy poszczególnych jej elementów. Ponadto sieci neuronowe mają zdolność uczenia się, dzięki czemu potrafią znajdować rozwiązania przy braku wystarczającej ilości danych wejściowych. Sieci neuronowe stosowane są w medycynie do diagnozowania chorób (np. na podstawie zbiorczych wyników badania krwi), prognozowania wyników giełdowych, kształtowania się cen a nawet poszukiwania ropy naftowej,
- systemy ekspertowe - czyli bazy danych wyposażone w „inteligentne” możliwości wyszukania (na podstawie danych wejściowych) właściwych rozwiązań,
- analiza i synteza języków naturalnych, w tym rozpoznawanie mowy i pisma – popularne są komercyjne i ogólnodostępne systemy „inteligentnego czytania” skanowanych dokumentów, w tym pisma ręcznego,
- sztuczna twórczość – istnieją już programy potrafiące nie tylko generować proste, krótkie melodie ale także odwzorowywać arcymistrzów (melomani zebrani w sali koncertowej na Uniwersytecie Kalifornijski odsłuchali 42-gą symfonię W. A. Mozarta. W rzeczywistości 42-gą symfonię skomponował komputer. Dokonał on, oczywiście przy udziale programisty, tego czego nie potrafili inni kompozytorzy – utożsamił się do tego stopnia z mistrzem, iż zaczął tworzyć jak on. EMI – bo tak nazwany został komputer – stworzył 42-gą po przeanalizowaniu 41 symfonii – wyciągnięciu z nich „esencji Mozarta”. David Cope – twórca komputera twierdzi, iż nie spotkał się z nikim, kto nie znając pełnego dorobku Mozarta mógł powiedzieć, że autorem 42-giej nie był Mozart).
- Systemy powiązane z grami – systemy te, przeważnie komercyjne posługują się prostymi algorytmami (zasady gier) wprowadzanymi jako dane wejściowe po czym dokonują obliczeń możliwych kombinacji i wybierają najlepsze z nich. Pomimo niewyszukanego charakteru i komercyjnych zastosowań, przegrana mistrza szachowego G. Kasparova z komputerem Deep Blue 2 jaka miała miejsce w 1997 r. odbiła się szerokim echem i wywołała wiele dyskusji na temat zaawansowania sztucznej inteligencji (w końcu gra w szachy była od zawsze bastionem doskonałości ludzkiego umysłu).

Myliłby się jednak ten, kto pomyśli, iż tak szeroki wachlarz zastosowań sztucznej inteligencji wyczerpuje konieczność dalszych badań lub spełnia definicję „silną” A.I. Jak twierdzą eksperci do stworzenia prawdziwej sztucznej inteligencji jest jeszcze daleko a nigdy nie będziemy mogli być pewni, że w pełni odwzorowuje ona funkcję ludzkiego myślenia. Do tzw. postulatów A.I. czyli zadań priorytetowych jakie stawia sobie omawiana dziedzina nauki należy:
- reprezentacja wiedzy aby móc przyjmować pojawiające się informacje o świecie, rozumieć je, konfrontować z już posiadaną wiedzą,
- wnioskowanie aby wyciągać wnioski z pojawiających się informacji i podejmować decyzje o dalszych działaniach,
- uczenie się dla dostosowania się do nowo pojawiających się okoliczności, nieprzewidzianych przez twórców systemu, pojmowania nowych zjawisk, itp.
- rozumienie języka naturalnego jako praktycznie niezbędne aby można było praktycznie sprawdzić zdolności systemu sztucznej inteligencji,
- robotyka czyli praktyczna konstrukcja systemu zdolnego poruszać się i wykonywać działania w świecie rzeczywistym (tzw. system agentów, jednostek całkowicie autonomicznych).

Przedstawiona powyżej definicja inteligencji, sztucznej inteligencji jak i nakreślenie głównych kierunków badań wydaje się może nazbyt obszerne lecz w bardzo niewielkim procencie dotyka problematyki A.I. – jedynie w takim, jaki jest niezbędny do skonfrontowania badań nad sztuczną inteligencją z filozoficzną teorią poznania i określenia ich wzajemnych relacji.

Nim przejdziemy do przypomnienia podstawowych założeń a także różnych podejść do drugiego z filarów tematu niniejszej pracy, zdefiniujmy krótko zagadnienie.
Teoria poznania, gnoseologia, epistemologia, to teoria filozoficzna usiłująca sformułować odpowiedź na pytania: czym jest poznanie, jaka jest jego geneza, jakie są jego warunki, czym jest podmiot, przedmiot i akt poznania, czy istnieją granice poznania. Prawie każdy filozof przedstawia własną teorię dotyczącą tych kwestii.
Ogólnie można stwierdzić, że teorie poznania dzielą się na racjonalne, przyjmujące za kryterium poznania sprawdzalność lub falsyfikowalność wysuwanych twierdzeń (np. Arystoteles), i irracjonalne, uznające za kryterium poprawności specyficzne przeżycie poznawcze, np. oświecenie, ekstazę itp. (np. Platon). Jedne z nich upatrują źródło poznania w doświadczeniu zmysłowym (np. J. Locke), inne w działalności rozumu (np. Kartezjusz). Z teorią poznania wiążą się takie pojęcia, jak sceptycyzm, polegający na podaniu w wątpliwość twierdzeń, i agnostycyzm, negujący możliwość poznania całej rzeczywistości lub jej części.
Platon, przedstawiając swe poglądy na temat poznania utrzymywał, iż dusza nim zaczęła wieść żywot w ciele, egzystowała w świecie idei i właśnie w nim zdobyła wiedzę, która pozostaje żywa w człowieku, lecz wymaga przypomnienia. Zapominamy o tym, że nasza dusza istniała w świecie idei, gdyż świat, który doświadczamy za pomocą rzeczy zmysłowych, narzuca się nam nieodparcie i odciąga od kontemplacji tego, co wieczne i absolutne, a co się znajduje wszakże również w nas samych. Dzięki naszemu aparatowi zmysłowemu jesteśmy w stanie rozpoznać rzeczy, jednak nie widzimy ich prawdziwej natury, która to znajduje się tylko w naszych umysłach, w naszej zakodowanej pamięci świata idei.
Tylko poprzez platońską teorię świata idealnego można rozpatrywać jego podejście do teorii poznania, w której zmysły niemal nie mają znaczenia a rozum – tylko o tyle, o ile jest „analizatorem” przetwarzającym „dane” płynące z owego idealnego świata.
Arystoteles, idąc w tej mierze wbrew swemu nauczycielowi Platonowi uważał, iż to zmysły stanowią początek wszelkiej wiedzy, że człowiek przychodząc na świat jest niczym biała karta, którą zapiszą dopiero treści nabyte na drodze poznania zmysłowego. Mimo to jednak Arystoteles nie utrzymywał, iż zmysły są początkiem i końcem wszelkiego poznania. Według Arystotelesa zmysły są istotnym narzędziem rozumu, który – stosując informatyczne porównanie – przetwarza „dane” dostarczone przez zmysły a także, stosując niezwykle istotna dla Arystotelesa dedukcję – wyciąga z owych danych kolejne elementy wiedzy, już jakoby na zasadzie „obróbki wewnętrznej”. Stąd też narodził się arystotelesowski podział nauk na praktyczne i teoretyczne.
W filozofii nowożytnej, duży nacisk na sprecyzowanie teorii poznania kładł Kartezjusz, który jednak czerpał wiele z platońskiego świata idei, jak i z iluminizmu św. Augustyna. Według Kartezjusza, do poznania niezbędny jest rozum. To co rozum uzna za jasne i wyraźne jest pewne. Zmysły natomiast, które przydatne są do życia nie są absolutnie przydatne przy poznawaniu. Zadaniem zmysłów jest jedynie zasygnalizowanie co jest dla człowieka szkodliwe, a co odpowiednie, nie stanowią jednak źródła poznania. Kartezjusz sądził, iż umysł ludzki może poznawać rzeczywistość niejako na dwa sposoby: intuicyjny oraz dedukcyjny.
Intuicja - to bezpośrednia forma poznania, która pozwala na uchwycenie sensu bytu przedmiotu. To, co poznajemy za jej pomocą - własne myślenie oraz istnienie, to, że wątpimy, pewniki matematyczne, narzuca się nam niejako całą swą oczywistością i jako takie jest nieodparte. Prawdy, które się nam odkrywają na tej ścieżce poznania, stanowią punkt wyjścia dla drugiego rodzaju poznania, który wskazał Kartezjusz, mianowicie dedukcji. Mając bowiem pewien zbiór aksjomatów, możemy na ich podstawie wywnioskować (wydedukować) dalsze prawdy, nieobjęte już poznaniem intuicyjnym. Kartezjusz dzielił nasze poznanie na świat idei, lecz posługując się naszym porównaniem informatycznym, słowo „idee” znów śmiało możemy zastąpić słowem „dane”. Wyróżniał on zatem idee (dane) wrodzone, nadane przez samego Stwórcę (Wielkiego Programistę), idee (dane) nabyte, te które przechwytujemy z otaczającego nas świata w czasie naszego życia oraz idee (dane) przetworzone, które na podstawie posiadanych w naszych umysłach tworzymy sami.
Duży nacisk w swej filozoficznej teorii poznania kładł Kartezjusz na konieczność wątpienia. Kartezjańskie „myślę, więc jestem” jest głęboko zakorzenione w augustyńskim „wątpię, więc jestem”. Według obu myślicieli, tylko wątpliwości stanowią o tym, iż ktoś myśli a poprzez to – że istnieje.
Na koniec omawiania poglądów Kartezjusza warto wspomnieć, iż z biologicznego punktu widzenia umiejscawiał on rozum i duszę ludzką w niewielkim gruczole dokrewnym mózgu – szyszynce. Stworzył on również teorię afektów, tj. rodzaju spostrzeżeń, które dusza odnosi do samej siebie. Umiejscawiał je we krwi. Występować miały one w różnych proporcjach w zależności od tego, jakim dana osoba dysponuje temperamentem. Oddziaływały na duszę, przymuszając ją do podejmowania działań, np. strach skłania do brania nóg za pas. Według Kartezjusza istnieją następujące afekty: podziwu, miłości, nienawiści, pożądania, radości i smutku.
Kolejny wybitny znawca teorii poznania, John Locke, w sposób rewolucyjny zrywał z racjonalistyczną tradycją swych poprzedników. John Locke zakładał, iż nic nie istnieje w rozumie, czego uprzednio nie byłoby w zmysłach. Poznanie zmysłowe prowadzi do jedynej, prawdziwej wiedzy, natomiast czysty racjonalizm, tworzy jedynie złudzenia.
Będąc empirystą Locke utrzymywał, iż człowiek przychodzi na świat jako czysta karta (tabula rasa) i dopiero doświadczenie nabywane z wiekiem pozwala mu ją zapełnić. Sprzeciwiał się twierdzeniu Platona i Kartezjusza, że człowiek posiada idee wrodzone, z którymi przyszedł na świat.
I ponownie powrócić możemy do naszej, jakże obrazoburczej koncepcji informatyzacji epistemologii. Otóż Locke dzielił nasze poznanie na idee, które znów nazwać możemy „danymi” - idee (dane) proste oraz na idee (dane) złożone. Idee (dane proste) - niejako otrzymujemy je, są one nam dane, nie możemy od nich uciec, ani jakoś ich przetworzyć, odbierając je nasz umysł pozostaje biernym, jest niczym zwierciadło, które odbija świat, nic od siebie do niego nie dodając. Idee proste to nic innego niż doznania zmysłowe. Wśród nich wyróżnił Locke jakości pierwotne, które powstają z syntezy, połączenia informacji płynących od wszystkich zmysłów (wielkość, kształt oraz ruch przedmiotów), oraz jakości wtórne, które tworzą się na bazie danych przekazywanych przez jeden zmysł (barwa, smak, zapach, wyczuwane ciepło, faktura i dźwięk).
Z kolei idee (dane) złożone - powstają w wyniku łączenia w różnego rodzaju związki idei prostych, stanowią następstwo łączenia się w ludzkim mózgu doznań zmysłowych i w jakimś sensie są one odpowiednikiem kartezjańskich idei przetworzonych. Trzymając się mocno sensualizmu stwierdzić możemy iż było to zmysłowe postrzeganie wewnętrzne, zwane przez Locke refleksją.
Johna Locke uważa się za przedstawiciela empiryzmu obiektywnego, gdyż uznawał, iż istnieje rzeczywistość, która nie zależy od istnienia podmiotu, czym zrywał z kartezjańską zasadą, iż nie można rozmawiać o rzeczywistości w oderwaniu od podmiotu który ją poznaje.
W późniejszej historii filozofii znajdziemy oczywiście jeszcze wielu znakomitych myślicieli, którzy zajmowali się zagadnieniem epistemologii, jak choćby ojciec informatyki Leibniz, Kant, twórca pojęcia tautologii i terminów poznania a priori i a posteriori czy Nietzsche, lecz nie przedłużając części definicyjnej, pozostańmy przy wymienionych i pokrótce scharakteryzowanych czterech najwybitniejszych myślicielach teorii poznania. Każdemu wiernemu filozofowi, sprowadzanie opisywanych przez tych wspaniałych mężów idei do jakże prostackiego terminu „dane” oraz nazywanie Stwórcy „Wielkim Programistą” może wydać się karygodne i świętokradcze, lecz w świetle tematu niniejszej pracy, wydaje się być celowe by ukazać zależności pomiędzy odwiecznym postrzeganiem człowieczym, a tak świeżym i ciągle w przewadze teoretycznym postrzeganiem umysłu stworzonego sztucznie.

Samo sedno czyli próba odpowiedzi na pytanie.

Nim uczynię zadość kwestii postawionej w temacie niniejszej pracy, należy zauważyć, iż równie dobrze można by postawić pytanie odwrotne: czy badacze sztucznej inteligencji korzystali w jakiś sposób z dziedzictwa teorii poznania? Z całą pewnością odpowiedź byłaby twierdząca. Od pierwszych chwil, kiedy to prace naukowców zaczęły zmierzać dalej niż tylko w celu stworzenia doskonałej i szybkiej maszyny do liczenia, musieli oni zadać sobie pytanie, co świadczy o geniuszu ludzkiego umysłu, jego niepowtarzalności i trudności w sztucznym odtworzeniu. Prócz tego, że wspomniani badacze zostali wsparci nowoczesnymi wynikami badań biologicznych, fizjologicznych, psychologicznych i zasadniczo poznali fizyczną strukturę mózgu człowieka, ciągle zmagają się z odpowiedzią na pytanie czym jest myślenie i inteligencja, czym więcej niż tylko kakofonią impulsów nerwowych przekazywanych pomiędzy neuronami.
Dziś już wiemy, że w naszych głowach, prócz owych impulsów, jakże podobnych do działania komputerów w systemie binarnym, zachodzi wiele innych procesów. Myślę tu o tych procesach, które są dla nas oczywiste i możliwe do odtworzenia sztucznie (mimo, iż nie mamy magnetycznych dysków w głowach) jak na przykład pamięć, a także o procesach wciąż obcych sztucznej inteligencji a więc myśleniu abstrakcyjnym, wątpliwościach, intuicji, o sumieniu i emocjach nie wspominając.

Dane

Jednym z ważniejszych postulatów badań nad sztuczną inteligencją jest kwestia reprezentacji. Słowo to potocznie znaczy coś zupełnie innego niż w dziedzinie A.I. Reprezentacja rozumiana jest tu jako sposób komunikowania się danego systemu z otoczeniem, ze światem zewnętrznym, jak też możliwość czynienia w nim reakcji. Mowa tu będzie przede wszystkim o zmysłach takich jak umiejętność rejestracji obrazu czyli widzenie, umiejętność rejestracji dźwięku czyli słyszenie, umiejętność generowania dźwięków odpowiadających językowi symbolicznemu czyli mowa a także węch, smak, dotyk, ale również o umiejętności przemieszczania się.
O ile kwestia widzenia czy słyszenia jest sprawą prostą poprzez użycie kamer i mikrofonów to rozpoznawanie zapachów czy smaków jest sprawą o wiele bardziej skomplikowaną. Oczywiście osobną sprawą jest sama rejestracja, techniczna możliwość widzenia czy słyszenia a osobną umiejętność rozpoznania mowy czy słowa pisanego, przypisanie dźwiękom i obrazom odpowiedniego znaczenia. I znów sprawa prościej będzie się miała przy piśmie, gdzie ilość znaków, nawet w języku chińskim jest jednak ograniczona i sztuczny mózg według zakonotowanych wzorców rozpozna owe znaki, coraz częściej nie tylko drukowane ale i pisane. Większym problemem jest odpowiednie przypisanie znaczenia obrazom niesymbolicznym, zrozumienie ich wzajemnych korelacji. Najczęściej podawanym przykładem jest tu „uczenie” sieci neuronowej rozpoznawania stołu, poprzez zaprogramowanie obrazów wielu stołów a następnie znalezienie cech wspólnych, charakterystycznych dla przedmiotu, takich jak nogi, blat, wysokość przeciętnie odpowiadająca człowiekowi siedzącemu itp. Dzięki temu system odbierając za pomocą kamery obraz stołu, który nigdy nie został mu zaprogramowany będzie w stanie zakwalifikować go jako ten rodzaj mebla. Jednakże długa droga jeszcze pozostaje by sztuczne umysły sprostały wyzwaniu rozpoznawania wzajemnych, skomplikowanych korelacji, wzajemnych oddziaływań pomiędzy przedmiotami.
Kolejnym problemem jest mobilność systemu pozwalająca mu na pozyskiwanie danych w sposób autonomiczny a nie tylko dzięki położeniu czegoś przed kamerą, włożeniu do skanera itp. Autonomiczny system zwany w nomenklaturze A.I. „agentem” powinien sam zdobywać informacje, dążyć do ich weryfikacji, wzbogacenia a nie tylko przetwarzać je. Kwestią sporną pozostaje czy prace pójdą w stronę mobilności i autonomiczności fizycznej, czyli robota przemieszczającego się na nogach lub kołach, wyposażonego w kamery, mikrofony i głośniki czy w stronę mobilności wirtualnej. W dobie powszechnego internetu, globalnej sieci, w której znajduje się chyba każda informacja nie trudno wyobrazić sobie system, który przenikając, niejako elektronicznie czytając strony internetowe będzie się uczył, pozyskiwał nowe dane a także elektronicznie wchodził z nimi w interakcje polegające na przekazywaniu danych „od siebie”. Być może właśnie ten drugi system reprezentacji byłby prostszy do stworzenia i na pewno lepiej zdobywający dane niż kroczący do księgarni robot, który potem z trudem manipulując kartkami przeczyta tekst za pomocą kamer.
Co prawda trwają zaawansowane prace nad robotami, które posługują się tą drugą metodą, ale ich możliwości są jeszcze znikome. Na politechnice MIT stworzono robota o imieniu Cog, który może wchodzić w interakcje ze środowiskiem. Obecnie jego obwody pozwalają na reakcje podobne do obserwowanych u 2 letniego dziecka. Cog, mając na starcie wyłącznie najbardziej bazowe dane programu, musi sam nauczyć się wszystkiego. Obserwując zachowanie Coga, jego ciekawość poznawczą, płynne ruchy można odnieść wrażenie zachowuje się on podobnie jak poznające świat dziecko. Cieszy to jego twórców, gdyż stworzenie istoty uczącej się na wzór człowieka było głównym celem projektu. Cog posiadł rozmaite umiejętności z zakresu ludzkich zachowań. Na przykład jest on w stanie spojrzeć komuś prosto w oczy. Jeśli w jednej z dwóch peryferyjnych kamer zauważy ruch wówczas uruchamia programy rozpoznające charakter poruszającego się kształtu. Jeśli wśród nich jest twarz wówczas Cog odwraca się do obiektu i uruchamia centralne kamery o wysokiej rozdzielczości. Przy ich pomocy lokalizuje oczy i zaczyna się w nie wpatrywać. Jedynym zgrzytem w całym projekcie jest jak na razie nie rozwiązany problem wewnętrznie sterowanej uwagi oraz pamięci, która imitowałaby przechowywanie informacji przez człowieka. Taka pamięć musiałaby odróżniać kolejność zdarzeń w przeszłości, magazynować informacje w postaci hierarchii itp.
Biorąc pod uwagę powyższe rozważania, pokazując jak trudne zadania stoją jeszcze przed naukowcami zajmującymi się A.I. stwierdzić możemy, iż zmysły są niezwykle ważnym czynnikiem poznania. Niejednokrotnie niedoceniane przez filozofów, stawiane poniżej rozumu są one niezbędnym warunkiem stworzenia w pełni inteligentnego systemu, który będzie umiał nie tylko analizować dane ale także wybiórczo je pozyskiwać, samodzielnie uczyć się i wchodzić w interakcje ze światem zewnętrznym. W tym rozumieniu kłody rzucane pod nogi naukowcom trudzącym się nad stworzeniem systemu w pełni autonomicznego podnoszą znaczenie poznania zmysłowego a tym samym wzbogacają filozoficzną teorię poznania.

Algorytm

Jedno co pozostaje pewne na gruncie współczesnych badań nad A.I to fakt, iż o ile maszyny w doskonały i precyzyjny sposób potrafią wiele tysięcy raz zwiększyć szybkość pewnych prostych zadań myślowych, umysł ludzki ciągle pozostaje dużo bardziej złożony a przez to pozostaje uniwersalny, co mimo powolności – daje mu niezmierną przewagę. Specjalizacja pozostaje ciągle klątwą sztucznych bytów, bo jeśli nawet w mgnieniu oka policzą one 348573 razy 84673, to niemożliwym dla nich byłoby autonomiczne przeżycie jednego, ludzkiego dnia. W ciągu takiego dnia, każdy człowiek podejmuje się tysięcy, milionów zadań, które wykonuje dzięki danym zgromadzonym przez całe swoje życie, ba, dzięki milionom lat ewolucji (choć nasz instynkt odziedziczony po przodkach nie jest już tak silny jak kiedyś). Prócz tych danych, dysponujemy też wielką liczbą algorytmów postępowania, czyli sposobów, pewnych zasad działania na danych.
Algorytm działania jest podstawą pracy sztucznego umysłu, dla prostego kalkulatora wprowadzone algorytmy dodawania, odejmowania, dzielenia czy mnożenia są nieliczne i poza nimi maszyna nie wykona już nic. Skomplikowany komputer pokładowy samolotu czy komputer architekta ma zapewne tych algorytmów setki, dzięki czemu obliczy trajektorię lotu przy różnych warunkach pogodowych czy określi prawidłowe naprężenia konstrukcji. Lecz i tu da o sobie przekleństwo specjalizacji, bo ograniczona ilość „przepisów jak działać” nie pozwoli na ani jedną czynność poza określonymi algorytmami. Człowiek, posiada tych algorytmów dużo więcej, choć nie zdaje sobie sprawy z ich istnienia, no i oczywiście nie nazywa ich tak. Nie chodzi tu tylko o spisane algorytmy postępowania jak np. przepisy prawne, lecz o te najprostsze, np. iż kiedy jest nam zimno, uruchamiamy sekwencję ruchów prowadzącą do wędrówki dłoni w określony punkt przestrzeni, gdzie – jak podpowiada nasza pamięć jest zamek błyskawiczny kurtki, gdy się zatnie, inny algorytm podpowiada nam, iż cofnięcie o kilka ząbków pomoże.
Miliardy takich reguł wiąże w naszych mózgach miliardy danych, przetwarza i generuje impulsy pozwalające nam działać. I w tym momencie możemy już dać cząstkową odpowiedź na pytanie postawione w tytule niniejszej pracy. Małość i pewna infantylność sztucznych umysłów, owo algorytmiczne ograniczenie uświadamia, jak ważna w teorii poznania jest owa wielość i współdziałanie „zasad postępowania”, owe sprawne korzystanie z posiadanych danych. Wielcy filozofowie wspominają nam co prawda o myśleniu dedukcyjnym, o intuicji, lecz nieco wyabstrahowane teoretyzowanie unaoczniło problem programistom i badaczom A.I. dopiero kiedy stanęli przed zadaniem odwzorowania ludzkiego umysłu. Postawmy więc tezę: nasze poznanie potrzebuje nie tylko danych, niezależnie od ich natury ale także – jakże doskonałej u człowieka – umiejętności postępowania z nimi.

Duch w maszynie

Forpocztą sztucznej inteligencji, konstrukcją, która spełnia (bądź zaczyna spełniać) postulat multi-algorytmiczny jest sieć neuronowa. Zasada jej funkcjonowania opisana została w części definicyjnej niniejszej pracy - w tym miejscu stwierdzić należy, że sieci neuronowe pokazały, że możliwe jest celowe i inteligentne zachowanie się złożonego systemu pomimo tego, że żaden z elementów nie jest sam w sobie inteligentny. Dzięki temu obalony został argument Gilberta Ryle'a dowodzący, że do osiągnięcia inteligencji potrzebny jest „duch w maszynie”, gdyż każdy inteligentny proces musi się odwoływać do równie inteligentnych podprocesów. Inteligentne zachowanie może być wynikiem kooperacji wielu prostszych podprocesów, z których każdy rozbić można na jeszcze prostsze podprocesy itp. Podobnie przecież rzecz ma się z ludzkim mózgiem, trudno bowiem stwierdzić iż pojedynczy neuron jest „inteligentny”.
Na styku prac nad sztuczną inteligencją i teorią poznania, w latach siedemdziesiątych dwudziestego wieku powstała nowa psychologiczna nauka – kognitywistyka. Zajmuje się ona modelowaniem działania umysłu, wyjaśnianiem procesów myślowych a także próbą ich odtworzenia. Jednym z najwybitniejszych przedstawicieli kognitywizmu był Allen Newell. Do spółki z Herbertem Simonem sformułował on, podstawy całej dziedziny. Uczeni ci, byli zarówno pionierami sztucznej inteligencji, laureatami nagród za prace nad A.I. a także filozofami, twórcami zunifikowanej teorii poznania. Nie ulega wątpliwości, iż to właśnie badania nad sztuczną inteligencją pozwoliły im na stworzenie pewnych uniwersalnych założeń jakimi kieruje się ludzkie myślenie.
Jednym z takich założeń jest doprecyzowanie definicji inteligencji. Według kognitywistów jeśli określony system (umysł ludzki, sieć neuronowa, sztuczny mózg) używa całej dostępnej mu wiedzy i wyciąga z niej wszystkie wnioski to jest doskonale inteligentny. Jeśli systemowi brakuje wiedzy to niezdolność do rozwiązania postawionego przed nim zadania nie jest winą braku jego inteligencji lecz braku wiedzy. System automatycznego tłumaczenia tekstów, który nie zna jakiegoś zwrotu idiomatycznego narobi oczywistych błędów, podobnie jak i człowiek usiłujący zrozumieć dany zwrot. Jeśli system posiada wiedzę ale nie potrafi jej użyć to jest to wynik braków jego inteligencji. W tym ujęciu inteligencja sprowadza się do zdolności używania wiedzy do osiągania stojących przed systemem celów.
Takie ujęcie problemu z pewnością wprowadza pewne novum do teorii poznania i jednocześnie pozwala uznać, że sztuczna inteligencja istnieje już od dawna. Pozwala również stwierdzić, że inteligencja nie jest tożsama z rozumieniem i świadomością. Jeden z krytyków kognitywizmu, amerykański filozof John Searl podał klasyczny już dziś eksperyment myślowy stanowiący argument przeciwko możliwości rozwinięcia się rozumienia w dowolnej maszynie cyfrowej.
Searl proponuje, byśmy wyobrazili sobie, że jesteśmy zamknięci w pokoju wypełnionym koszami z napisami w języku chińskim. Chociaż nie znamy języka chińskiego dostajemy instrukcję postępowania z regułami (w zrozumiałym dla nas języku) pozwalającymi nam manipulowanie tymi symbolami. Przez okienko ktoś wsuwa nam nowe symbole zawierające pytania. Analizujemy te symbole i posługując się regułami zestawiamy z symboli wziętych z różnych koszy odpowiedzi. Jeśli reguły, odpowiadające programowi manipulacji symbolami, są dostatecznie dobre, to odpowiedzi wysuwane przez nas przez okienko będą dla stojących po drugiej stronie Chińczyków miały sens i będą oni skłonni założyć, że w środku musi być ktoś, kto rozumie zadawane mu pytania. My jednakże nie mamy pojęcia o znaczeniach symboli do nas docierających, w oparciu o reguły zestawiamy jedynie symbole. W pokoju nie ma więc nikogo, kto mógłby rozumieć język chiński. Jeśli jednak wykonywanie formalnego programu nie jest wystarczającą przyczyną dla nas by rozumieć, co robimy, nie może być też mowy o tym by maszyna wykonująca ten program naprawdę coś rozumiała. Rozumienie wymaga czegoś więcej niż operacji na symbolach przy pomocy reguł formalnych. Jednakże maszyna cyfrowa niczego poza formalnymi symbolami znać nie może.
Podobnie sprawa ma się ze świadomością, która jest określana jako „myślenie o własnym myśleniu”. Póki co wydaje się mało prawdopodobne, by nawet najbardziej złożony system analizy danych, przetwarzający je nawet przez miliony algorytmów zyskał świadomość własnego istnienia, choć nawet najgorliwsi przeciwnicy kognitywizmu i teorii sztucznego umysłu tego nie wykluczają. Jednym z nich jest Sir Roger Penrose, wybitny matematyk i fizyk teoretyk, który wzorem Kartezjusza dzieli ludzkie poznanie na sferę zmysłów i rozumu. Poznanie zmysłowe dostarcza nam danych, dane te możemy przetwarzać w sposób algorytmiczny czyli inteligentny. Jednak umysł ludzki stosuje wiele operacji niealgorytmicznych i w tej sferze znajduje się własne rozumienie czy świadomość. Bo czyż da się stworzyć algorytm miłości czy wiary w Boga? Z całą pewnością nie. Penrose stawia tezę, iż zrozumienie własnego umysłu porównać można do węża zjadającego własny ogon, że jest to zadanie wewnętrznie sprzeczne i nigdy nie poznamy wszystkich niuansów naszego myślenia, nigdy nie stworzymy doskonałego modelu ludzkiego mózgu. W tym miejscu badania nad sztuczną inteligencją wnoszą do teorii poznania pewien aksjomat negatywny, jak gdyby ogranicznik porównywalny z „wiem, że nic nie wiem” Sokratesa. Być może ludzkie poznanie zdolny byłby w pełni pojąć tylko umysł dalece doskonalszy od naszego.
Nawiązując do niealgorytmicznych operacji ludzkiego umysłu postulowanych przez Penrose należy zwrócić uwagę jak bardzo w naszym myśleniu kierujemy się emocjami, uczuciami, popędami – tym wszystkim co bardzo trudno jest odtworzyć sztucznie. Owszem, maszyna może symulować stany miłości, gniewu czy strachu, lecz wątpliwe jest czy kiedykolwiek będzie potrafiła odczuwać. Prócz omawianej już świadomości własnego bytu do czucia potrzebne są także pewne substancje chemiczne, wydzielane przez nasze gruczoły. Być może kiedyś stanie się możliwe stworzenie algorytmu adrenaliny, serotoniny czy innych hormonów i w odpowiedniej sytuacji jakaś wyspecjalizowana cześć rozbudowanej sieci neuronowej zareaguje wnosząc do czystego algorytmu przetwarzania danych elementy emocjonalne, które ów algorytm wzbogacą, będą dodatkowymi danymi, które wpłynął na wynik operacji myślenia. Wynik ten może się wtedy okazać zupełnie inny niż ten, który byłby oparty na logicznym rozumowaniu. Powołany już w tej pracy przykład przegranej mistrza szachowego Kasparova z komputerem Deep Blue 2 potwierdza wpływ emocji na myślenie. Prawdopodobnie to stany emocjonalne, wahanie, strach, rozproszenie myśli spowodowały, iż w tej próbie maszyna okazała się lepsza.
Lecz należy zadać sobie pytanie, czy konstruowanie takich umysłów byłoby celowe? Jeśli sztuczna inteligencja ma nam pomagać w doskonalszym, szybszym wykonywaniu pewnych zadań, emocje mogą tylko w tym przeszkadzać. Jeśli zaś pełne odwzorowanie ludzkiego umysłu miałoby być celem samym w sobie, potwierdzeniem geniuszu i wszechmocy nauki, wtedy to zaczęlibyśmy niebezpieczną zabawę w Boga ze wszystkimi tego konsekwencjami. Stwierdzić zatem należy, że rozwijać i wzbogacać nasze poznanie można tylko do pewnego stopnia, że granice tego poznania, stosowanych środków są określone moralnością. Podobnie jak nazistowskie eksperymenty w obozach śmierci służyć miały poszerzaniu wiedzy – lecz stosowane środki były zbrodnicze i haniebne, podobnie manipulowanie przy stworzeniu sztucznej świadomości zaopatrzonej w emocje, uczucia – a przy tym jakże uzależnionej od swego stwórcy – człowieka staje się moralnie naganne, nie mniej niż eksperymenty z klonowaniem.

Podsumowanie

Próba sztucznego odtworzenia naszego mózgu, świadomości, myślenia jest nie lada wyzwaniem. Dzięki wielu różnym naukom, w tym neurobiologii czy psychologii poznajemy ciągle nowe tajniki funkcjonowania ludzkiego umysłu, a czyniąc to, rozwijamy swoją wiedzę na temat poznania, niewątpliwie poszerzając ją i wzbogacając. Teoria poznania staje się praktyką, nie deliberujemy już o wyższości zmysłów nad rozumem, nie tworzymy niepotrzebnych klasyfikacji. Możemy jasno stwierdzić, iż do poznawania niezbędne są nam w równej mierze zmysły, dzięki którym pozyskujemy dane a także system połączonych ze sobą i współpracujących elementów, w których to odbywa się przetwarzanie otrzymanych danych. I wreszcie stwierdzić możemy, że niezbędnym dla ludzkiego poznania, myślenia, świadomości i psychicznego bytu jest to „coś” nieokreślonego, wyodrębniona Kartezjańska „dusza”, owe niealgorytmiczne operacje myślowe Penrose’a, coś co zawsze będzie nas odróżniać od maszyn. Jeśli przyjmiemy definicję inteligencji stworzoną przez kognitywistów możemy przyjąć, że sztuczna inteligencja już istnieje. Istnieją systemy mniej lub bardziej skomplikowane, działające na takiej czy innej ilości danych, które w doskonały, zupełny a przy tym szybki sposób wykonają zadaną pracę. Być może powstaną systemy oparte na sieciach neuronowych umiejące naśladować co raz więcej funkcji ludzkiego mózgu. Ale musimy pamiętać, że i poznanie ma swe granice, granice po przekroczeniu których czekać może nas, ludzkość, totalna katastrofa.

Dodano po 16 minutach 16 sekundach:
ps. Gdyby się kto chciał czepiać, to błędy (int, ort) w większości akurat celowe, by uprawdopodobnić poziom szkoły średniej. I jest jeszcze do tego 15 przypisów, ale mnie się wklejać nie chce :P
Sowy nie są tym, czym się wydają...
Awatar użytkownika
wpk
wpkx
Posty: 38800
Rejestracja: 10.2016
Lokalizacja: Nad Wigołąbką
Kontakt:

Re: Sztuczna Inteligencja

#2

Post autor: wpk »

Wiesz co, Sebastian? Po raz kolejny uświadomiłem sobie, żem głupi (nie umiem ani zbierać danych ani ich przetwarzać), nieuk, bo jak wyżej, i leń, bo nie chce mi się z tym walczyć...
Najwyższy czas uwierzyć w jakiegoś bożka.
Bo po co się męczyć? Frustrować? Czuć gorszym?
Wiara jest taka prosta i tłumaczy wszystko - nie trzeba być ani mądrym, ani uczonym, ani pracowitym.
Wiara daje poczucie wartości.
I lepszości.
puch24

Re: Sztuczna Inteligencja

#3

Post autor: puch24 »

Po prostu jesteś inżynierem i tyle... :-P
Awatar użytkownika
Owain
Nasz Czelnik
Posty: 14707
Rejestracja: 11.2016

Re: Sztuczna Inteligencja

#4

Post autor: Owain »

wpk pisze:Wiesz co, Sebastian? Po raz kolejny uświadomiłem sobie, żem głupi (nie umiem ani zbierać danych ani ich przetwarzać), nieuk, bo jak wyżej, i leń, bo nie chce mi się z tym walczyć...
Najwyższy czas uwierzyć w jakiegoś bożka.
Bo po co się męczyć? Frustrować? Czuć gorszym?
Wiara jest taka prosta i tłumaczy wszystko - nie trzeba być ani mądrym, ani uczonym, ani pracowitym.
Wiara daje poczucie wartości.
I lepszości.
Oczywiście, że tak!!! :D Wiara czyni cuda i góry przenosi. Tylko trudno uwierzyć w niektóre rzeczy. Próbowałem wierzyć w Boga, miłość, człowieka, Potwora Spagetti i to, że wciągnie mnie fotografia... wszystko chuj :D
Sowy nie są tym, czym się wydają...
nordenvind

Re: Sztuczna Inteligencja

#5

Post autor: nordenvind »

człowiek malej wiary, ot co... :0
Awatar użytkownika
vid3
Posty: 8566
Rejestracja: 07.2017
Lokalizacja: Miasto robotnicze
Kontakt:

Re: Sztuczna Inteligencja

#6

Post autor: vid3 »

Owain, nie podejrzewałem Cię o to.
Nie ma to tamto,
z grubej rury dowaliłeś.
Pytanie czy Lenka jak się ocknie to nadal będzie bredziła,
czy tylko poprosi o szklankę wody.
Awatar użytkownika
wpk
wpkx
Posty: 38800
Rejestracja: 10.2016
Lokalizacja: Nad Wigołąbką
Kontakt:

Re: Sztuczna Inteligencja

#7

Post autor: wpk »

puch24 pisze:Po prostu jesteś inżynierem i tyle... :-P
Dupą, nie inżynierem!
Matma i fiza to dla mnie czarna magia!

Ale humanistą też nie jestem, bo nie umiem pisać esejów, poematów ani nawet apokryfów - jak dwoje naszych wizjonerów.

Umiem tylko pierdolić głupoty...
vid3 pisze:Owain, nie podejrzewałem Cię o to.
Nie ma to tamto,
z grubej rury dowaliłeś.
Pytanie czy Lenka jak się ocknie to nadal będzie bredziła,
czy tylko poprosi o szklankę wody.
Brzydko napisałeś. Zła jaszczurka.
I chyba nie doceniasz Leny. ;)
Poza tym oni oboje wcale się tak bardzo nie różnią.
Tyle, że na pewno się do tego nie przyznają. ;)
puch24

Re: Sztuczna Inteligencja

#8

Post autor: puch24 »

Moim zdaniem Lena nie bredzi.
To, że czegoś nie rozumiemy albo trudno jest to nam przyjąć, nie musi oznaczać, że jest to bzdura.
Nie jestem zadufany, i choć mam się za człowieka inteligentnego, w miarę myślącego i w miarę wykształconego, wiem, że są ludzie, którzy mnie biją na głowę i im nie podskoczę. W każdym razie, zanim nazwę coś bzdurą, bo tego nie rozumiem albo nie czuję, najpierw szukam błędu w sobie - może jestem za mało bystry, może poczyniono zbyt duże dla mnie przeskoki myślowe, których nie jestem w stanie samodzielnie wypełnić, może po prostu brak mi przygotowania i niezbędnej wiedzy (background knowledge), żeby móc wejść na wyższy stopień wtajemniczenia?
A bzdurą nazywam coś, co ktoś pitoli jak potrzepany, a moja wiedza i doświadczenie pozwalają mi to jednoznacznie ocenić jako bzdurę, nie dlatego, że tego nie rozumiem, tylko dlatego, że stoi to w jawnej sprzeczności z tym co wiem i czego jestem pewien (na ile można być pewnym swej wiedzy).
puch24

Re: Sztuczna Inteligencja

#9

Post autor: puch24 »

Woytek, jesteś chyba w rozkroku pomiędzy ścisłymi a humanistyką, podobnie jak i ja. Tyle, że ty skończyłeś jako inżynier, a ja jako anglista. Pewnie równie dobrze moglibyśmy się zamienić.
W każdym razie, wiele osób mi.mówiło, że jestem jedną nogą tu, a drugą tam, a nigdzie dobrze i w pełni. W efekcie, nie potrafię sobie znaleźć właściwego miejsca i szarpię się to tu, to tam, i jestem najlepszym anglistą wśród techników i najlepszym technikiem wśród anglistów (uczciwszy wszystkie proporcje!), co bynajmniej nie jest pochlebnym określeniem. :-(
Awatar użytkownika
wpk
wpkx
Posty: 38800
Rejestracja: 10.2016
Lokalizacja: Nad Wigołąbką
Kontakt:

Re: Sztuczna Inteligencja

#10

Post autor: wpk »

I to jest prościutka droga do depresji...
Obaj to wiemy zbyt dobrze.
ODPOWIEDZ