Y
Yiannis_B
Guest
Τώρα τι να σε πω? Ας πρόσεχες.Εγώ το έχω λύσει αυτό το ερώτημα.
Έκανα παιδιά
Τώρα τι να σε πω? Ας πρόσεχες.Εγώ το έχω λύσει αυτό το ερώτημα.
Έκανα παιδιά
Σύμφωνα με το αρχικό link που έβαλα, δεν είμαστε μακριά. Κάπου σε δέκα χρόνια από τώρα, θα την έχουμε με μικρό κόστος. Το software φαίνεται να είναι πιο σημαντική παράμετρος.Η ιδέα της A.I. είναι αρκετά παλιά, έχουν γίνει διάφορες προσπάθειες μέχρι σήμερα αλλά όλες έχουν σκοντάψει στην υπολογιστική ισχύ του επεξεργαστή και το μέγεθος-ταχύτητα της μνήμης
Σήμερα τί έχουμε? Υπάρχει κάποιο απτό παράδειγμα που μπορεί να μας πείσει οτι σε 10 χρόνια θα υπάρχει κάτι που θα συγκρίνεται με τον άνθρωπο?Το software φαίνεται να είναι πιο σημαντική παράμετρος.
Γενικότερα τις δεκαετίες 60-90 υπήρχε μία γενικευμένη φιλοσοφία για ανάπτυξη του διαστήματος, γενική καταστροφή του κόσμου απο λοιμούς, πυρηνική καταστροφή, έλλειψη πετρελαίου κτλΑν κατάλαβα καλά ο τύπος λέει οτι πρέπει να σκεφτούμε " out of the box " .
Αν δεν υπάρξει κάποιο "ανθρώπινο " γεγονός (πχ πόλεμος ,οικ.κραχ παγκόσμιο ) που θα στολάρει την ανάπτυξη των Η/Υ η ανάπτυξη θα είναι τόσο αλματώδης που σημερινές "τρελλές ιδέες " σε λίγο θα είναι εφαρμοσμένες .
Δεν γνωρίζω πoιό είναι το bottleneck , software or hardware ,αλλά σίγουρα κάποια θέματα τρέχουν μακρυά από τα φώτα της δημοσιότητας
Είδα το 2001 Οδύσσεια του διαστήματος πολύ αργότερα από την κυκλοφορία του (πάνω από 10ετία ) και μου φάνηκε "παιδικό " ενω στην εποχή του είχε κάνει πάταγο .Ήδη κάποια σημεία του ήταν σχεδόν κεκτημένα
Γενικότερα τις δεκαετίες 60-90 υπήρχε μία γενικευμένη φιλοσοφία για ανάπτυξη του διαστήματος, γενική καταστροφή του κόσμου απο λοιμούς, πυρηνική καταστροφή, έλλειψη πετρελαίου κτλ
Τελικά τί απο αυτά έγινε? Τίποτα. Μόνο στο ipad έπεσαν μέσα.
Σήμερα πάντως επιμένω να μήν βλέπω πρόοδο στον τομέα αυτό. Και μου είναι αδύνατο να πιστέψω οτι σε 10 χρόνια θα δούμε ένα τόσο μεγάλο άλμα που θα δώ ένα ανδροειδές απέναντι μου. Το οποίο θα αισθανθεί την ανάγκη να ζωγραφίσει, να παίξει μουσική έτσι αναίτια.
...to be continued.Kurzweil was the principal inventor of the first charge-coupled device flatbed scanner,[2] the first omni-font optical character recognition,[2] the first print-to-speech reading machine for the blind,[3] the first commercial text-to-speech synthesizer,[4] the Kurzweil K250 music synthesizer capable of simulating the sound of the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.[5]
Kurzweil received the 1999 National Medal of Technology and Innovation, the United States' highest honor in technology, from President Clinton in a White House ceremony. He was the recipient of the $500,000 Lemelson-MIT Prize for 2001,[6]the world's largest for innovation. And in 2002 he was inducted into the National Inventors Hall of Fame, established by the U.S. Patent Office. He has received twenty honorary doctorates, and honors from three U.S. presidents. Kurzweil has been described as a "restless genius"[7] by The Wall Street Journal and "the ultimate thinking machine"[8] by Forbes. PBS included Kurzweil as one of 16 "revolutionaries who made America"[9] along with other inventors of the past two centuries.Inc. magazine ranked him #8 among the "most fascinating" entrepreneurs in the United States and called him "Edison's rightful heir".[10]
Μου το κόψανε το ιντερνέτι στο σπίτι για δε το πλήρωσα. Θα κάνω μια βδομάδα αποχή και άμα πάει καλά, δεν το ξαναπληρώνω. .Ακόμα πλένει;
Οκ, δεν υπάρχει αντικειμενικό πρόβλημα. Είτε μας αφανίσουν οι μηχανές είτε όχι, δεν πρόκειται να διαταραχθεί η ενεργειακή μάζα του Σύμπαντος. Απλώς θα υπάρξει κάποια μεταβολή, απότομη μεν, αλλά τόσο μικρή, που εντάσσεται άνετα εις το αέναον της Συμπαντικής ροής.Είναι οξύμωρο, να προσπαθούμε να εξελίξουμε διαδικασίες AI - safety, όταν η ίδια η AGI θα είναι δισεκκατομμύρια φορές "εξυπνότερη" από εμάς....
If superintelligent AI is possible, and if it is possible for a superintelligence's goals to conflict with basic human values, then AI poses a risk of human extinction. A superintelligence, which can be defined as a system that exceeds the capabilities of humans in every relevant endeavor, can outmaneuver humans any time its goals conflict with human goals; therefore, unless the superintelligence decides to allow humanity to coexist, the first superintelligence to be created will inexorably result in human extinction.[4][24]
https://en.wikipedia.org/wiki/Existential_risk_from_artificial_general_intelligence