La cosiddetta "intelligenza artificiale" non e' in fase di perfezionamento, semplicemente non esiste,
non e' mai esistita, e non puo' esistere con gli strumenti attuali.
E tutta questa ciarla che ci gira intorno cos'e' allora? E' semplicemente una cagnara collettiva in cui
gli esperti barano sapendo di barare mentre i tifosi, affascinati da cotanta novita', ne decantano le lodi
con argomenti da bar creando un abbaglio collettivo che nulla ha a che fare con l'intelligenza nemmeno
di una scimmia.
Il primo tentativo fu fatto negli anni 80 col linguaggio "prolog" e sprofondo' nel ridicolo in breve tempo,
il secondo negli anni 90, con l'apparire de big data si penso' che si sarebbe potuto estrarre "intelligenza"
da una massa sterminana di dati, tentativo fallito miseramente anche quello.
Quella che e' in corso e' l'ennesima ricaduta (nella malattia) causata dalla disponibilita' di dispositivi con
memorie dalla capacita' inimmaginabile appena alcuni lustri orsono.
Anche i processori (che poi sono il pezzo piu' importante) han moltiplicato la potenza in misura esponenziale,
peccato che funzionano esattamente allo stesso modo del 8086 della Intel di inizi anni 80, chi non ci
credesse provi a prendere un eseguibile di 40 anni fa che girava su 8086 (son file di pochi k, ai tempi si programmava
seriamente) e scoprira' con sua somma sorpresa che gira ancora sugli attuali processori I5, I7 etc... e anche sugli AMD.
Tutta l'intelligenza dei computer si riduce alla struttura "if then else", e, il famigerato "autoapprendimento"
altro non e' che un arricchimento della casistica in funzione degli eventi che si verificano nel tempo.
Ecco, "if then else", i piu' svegli si saranno gia' accorti che manca il "forse", e, senza quello non ci
puo' essere intelligenza, c'e' solo un caprone che fa questo o quello in relazione a una casistica predeterminata.