Istilah AI pertama kali dikemukakan pada tahun 1956 di
konferensi Darthmouth. Sejak itu, AI terus di kembangkan sebab berbagai
penelitian mengenai teori-teori dan prinsip-prinsipnya juga terus berkembang.
Meskipun istilah AI baru muncul tahun 1956, tetapi teori-teori yang mengarah ke
AI sudah muncul sejak tahun 1941. Secara lengkap, berikut ini tahapan- tahapan
sejarah perkembangan AI :
Era Komputer elektronik (1941)
Pada tahun
1941 telah ditemukan alat penyimpanan dan pemrosesan informasi. Penemuan
tersebut dinamakan komputer elektronik yang di kembangkan di USA dan jerman.
Komputer pertama ini memerlukan ruangan yang luas dan ruang AC yang terpisah.
Saat itu komputer melibatkan konfigurasi ribuan kabel untuk menjalankan suatu
program. Hal itu sangat merepotkan para programmer.
Pada tahun 1949, berhasil dibuat kemputer yang mampu menyimpan program sehingga
membuat pekerjaan untuk memasukkan program menjadi lebih mudah. Penemuan ini
menjadi dasar pengembangan program yang mengarah ke AI.
Masa persiapan AI (1943-1956)
Pada tahun
1943, Warren McCulloch dan Walter Pitts mengemukakan tiga hal: pengetahuan
fisiologi dasar fungsi sel syaraf dalam otak, analisis formal tentang logika
proposisi (propositional logic), dan
teori komputasi Turing. Mereka berhsil membuat suatu model sel syaraf tiruan (artificial Intellegence) dimana setiap neuron digambarkan sebagai ‘on’ dan ‘off’. Mereka menunjukkan bahwa setiap fungsi dapat dihitung dengan
suatu jaringan sel syaraf dan bahwa semua fungsi dapat dihitung dengan suatu
jaringan sel syaraf dan bahwa semua hubungan logis dapat diimplementasikan
dengan struktur jaringan yang sederhana.
Pada tahuan 1950, Norbert Wiener membuat penelitian mengenai
prinsip-prinsip teori feedback. Contoh
yang terkenal adalah thermostat. Penemuan
ini juga merupakan awal dari perkembangan AI. Pada tahun 1956, Jhon McCarthy
(yang setelah lulus dari Princeton kemudian melanjutkan ke Dartmouth College)
menyakinkan Minsky, Claude Shannon dan
Nathaniel Rochester untuk membantunya melakukan penelitian dalam bidang
Automata. Jaringan saraf dan pembelajaran intelejensia. Mereka mengerjakan
proyek ini selama 2 bulan di Dartmouth. Hasilnya adalah program yang mampu
berfikir non-numerik dan meyelesaikan masalah pemikiran, yang dinamakan Principia Mathematica. Hal ini
menjadikan McCarthy disebut sebagai Father
Of AI (Bapak AI).
Awal perkembangan AI (1952-1969)
Pada tahun-tahun pertama
pengembanganya. AI mengalami banyak kesuksesan. Diawali dengan kesuksesan
Newell dan Simon dengan sebuah program yang disebut general Problem Solver. Program ini dirancang untuk memulai
penyelesaian masalah secara manusiawi. Pada tahuan 1958, McCarthy di MIT AI Lab
Memo No. 1 mendefinisikan bahasa pemrograman tingkat tinggi yaitu LISP, yang
sekarang mendominasi pembuatan program-program AI. Kemudian McCarthy membuat
program yang dinamakan Program with
Common Sense. Di dalam program tersebut, dibuat rancangan untuk menggunakan
rancangan untuk mencari solusi.
Pada tahun 1959, Nathaniel Rochester dari IBM dan
mahasiswa-mahasiswanya mengeluarkan program AI yaitu Goemetry Theorm Prover. Program ini dapat membuktikan suatu teorema
menggunakan axioma-axioma yang ada. Pada tahun 1963, program yang dibuat James
Slage mampu menyelesaikan masalah integral tertutup untuk mata kuliah Kalkulus.
Pada tahun 1968, program analogi buatan Tom Evan menyelesaikan masalah analogi
goemetri yang ada pada tes IQ.
Perkembangan AI melambat (1966-1974)
Prediksi
Herbert Simon pada tahun 1957 yang menyatakan bahwa AI akan menjadi ilmu
pengetahuan yang akan berkembanga dengan AI melambat. Hal ini disebabkan adanya
3 kesulitan utama yang dihadapai AI, yaitu :
·
Masalah pertama: program-program AI yang bermunculan
hanya mengandung sedikit atau bahkan tidak mengandung sama sekali pengetahuan (knowledge) pada subjeknya.
Program-program AI berhasil hanya karena menipulasi sintetis yang sederhana.
Sebagai contoh adalah Weizenbaum’s ELIZA program (1965) yang dapat melakukan
percakapan serius pada topik, sebenarnya hanyalah sebagai peminjaman atau
menipulasi kalimat-kalimat yang di ketikkan manusia.
·
Masalah kedua : banyak masalah yang harus diselesaikan
oleh AI. Karena terlalu banyaknya masalah yang berkaitan, maka tidak jarang
terjadi kegagalan pada pembuatan program AI.
·
Masalah ketiga : ada beberapa batasan struktur dasar
yang digunakan untuk menghasilkan perilaku intelejensia. Contohnya dalah pada
tahun 1969 buku Minsky dan Papert Perceptrons membutikan bahwa meskipun program
– program Perceptrons dapat
mepelajari segala sesuatu. Tetapi program-program tersebut hanya
mempersentasikan sejumlah kecil saja. Sebagai contoh, dua masukan Perceptrons yang berbeda tidak dapat
dilatihkan untuk mengenali kedua masukan yang berdeda tersebut.
Sistem berbasi pengetahuan (1969 – 1979)
Pengetahuan adalah pendukung
AI. Hal ini dibuktikan dengan program yang dibuat oleh Ed Feigenbaum, Bruce
Buchanan dan Jhosua Lederberg yang membuat program untuk memecahkan masalah
struktur molekul dari informasi yang didapat dari Spectometer massa. Program ini dimanakan Dendral Programs yang berfokus pada segi pengetahuan kimia. Dari
segi diagnose juga sudah ada yang menemukannya, yaitu Saul Amarel dalam proyek Computer in Biomedicine. Proyek ini
diawali dari keinginan untuk memdapatkan diagnosa penyakit berdasarkan
pengetahuan yang ada pada mekanisme penyebab proses penyakit.
AI menjadi sebuah industry (1980-1988)
Industrialisasi
AI diawali dengan ditemukannya Expert
system (sistem pakar) yang dinamakan R1 yang mampu mengkonfigurasi
sistem-sistem komputer baru. Program tersebut mulai di operasikan di Digital Equipment Corporation (DEC),
McDermott pada tahun 1982. Pada tahun 1986, program ini telah berhasil
menghemat US$ 40 juta, per tahun. Pada tahun 1988, kelompok AI di DEC
menjalankan 40 sistem pakar. Hampir semua perusahaan di USA mempunyai devisi AI
sendiri yang menggunakan ataupun mempelajari sistem pakar. Booming industry AI ini juga melibatkan perusahaan – perusahaan
seperti Carnegie Group, Inference, Intellocorp, dan Technoledge yang menawarkan
Software tools untuk membangun sistem
pakar. Perusahaan hardaware seperti
LISP Machines Inc, Texas Instrument, Symbolics, dan Xerox juga turut berperan
dalam membangun workstation yang
dioptimasi untuk pembangunan program LISP. Sehingga, perusahaan yang sejak
tahun 1982 hanya menghasikan beberapa juta US dolar pertahun meningkat menjadi
2 milyar US dolar per tahun pada tahun 1988.
Kembalinya jaringan Syaraf Tiruan (1986- sekarang)
Meskipun bidang ilmu
kemputer menolak jaringan saraf tiruan setelah diterbitkannya buku “Percecptrons” karangan Minsky dan
Papert, tetapi para ilmuwan masih mempelajari bidang ilmu tersebut dari sudut
pandang yang lain yaitu fisika. Para ahli fisika seperti Hopfield (1982)
menggunakan teknik-teknik mekanika statistika untuk menganalisa sifat-sifat
penyimpanan dan optimasi pada jaringan saraf. Para ahli psikologi, David
Rumelhart dan Geoff Hinton, melanjutkan penelitian mengenal model jaringan
syaraf. Para ahli psikologi, David Rumelhart dan Geoff Hinton, melanjutkan
penelitian mengenai model jaringan syaraf pada memori. Pada tahun 1985-an
sedikitnya empat kelompok riset menemukan kembali algoritma belajar propagasi
balik (Back-Propagation learning).
Algoritma ini berhasil diinplementasikan kedalam bidang ilmu komputer dan
psikologi.
ngambil dari buku AI yg dibuat ama Suyanto ya..
ReplyDeletebtw thanks ya
jadi ga perlu ketik lama lama lagi w
tinggal copas ae :v