Friday, October 30, 2015

Filled Under:

Sejarah Kecerdasan Buatan (Artificial Intellegence)



Istilah AI pertama kali dikemukakan pada tahun 1956 di konferensi Darthmouth. Sejak itu, AI terus di kembangkan sebab berbagai penelitian mengenai teori-teori dan prinsip-prinsipnya juga terus berkembang. Meskipun istilah AI baru muncul tahun 1956, tetapi teori-teori yang mengarah ke AI sudah muncul sejak tahun 1941. Secara lengkap, berikut ini tahapan- tahapan sejarah perkembangan AI :

Era Komputer elektronik (1941)

            Pada tahun 1941 telah ditemukan alat penyimpanan dan pemrosesan informasi. Penemuan tersebut dinamakan komputer elektronik yang di kembangkan di USA dan jerman. Komputer pertama ini memerlukan ruangan yang luas dan ruang AC yang terpisah. Saat itu komputer melibatkan konfigurasi ribuan kabel untuk menjalankan suatu program. Hal itu sangat merepotkan para programmer. Pada tahun 1949, berhasil dibuat kemputer yang mampu menyimpan program sehingga membuat pekerjaan untuk memasukkan program menjadi lebih mudah. Penemuan ini menjadi dasar pengembangan program yang mengarah ke AI.

Masa persiapan AI (1943-1956)

            Pada tahun 1943, Warren McCulloch dan Walter Pitts mengemukakan tiga hal: pengetahuan fisiologi dasar fungsi sel syaraf dalam otak, analisis formal tentang logika proposisi (propositional logic), dan teori komputasi Turing. Mereka berhsil membuat suatu model sel syaraf tiruan (artificial Intellegence) dimana setiap neuron digambarkan sebagai ‘on’ dan ‘off’. Mereka menunjukkan bahwa setiap fungsi dapat dihitung dengan suatu jaringan sel syaraf dan bahwa semua fungsi dapat dihitung dengan suatu jaringan sel syaraf dan bahwa semua hubungan logis dapat diimplementasikan dengan struktur jaringan yang sederhana.
Pada tahuan 1950, Norbert Wiener membuat penelitian mengenai prinsip-prinsip teori feedback. Contoh yang terkenal adalah thermostat. Penemuan ini juga merupakan awal dari perkembangan AI. Pada tahun 1956, Jhon McCarthy (yang setelah lulus dari Princeton kemudian melanjutkan ke Dartmouth College) menyakinkan Minsky,  Claude Shannon dan Nathaniel Rochester untuk membantunya melakukan penelitian dalam bidang Automata. Jaringan saraf dan pembelajaran intelejensia. Mereka mengerjakan proyek ini selama 2 bulan di Dartmouth. Hasilnya adalah program yang mampu berfikir non-numerik dan meyelesaikan masalah pemikiran, yang dinamakan Principia Mathematica. Hal ini menjadikan McCarthy disebut sebagai Father Of AI (Bapak AI).

Awal perkembangan AI (1952-1969)

            Pada tahun-tahun pertama pengembanganya. AI mengalami banyak kesuksesan. Diawali dengan kesuksesan Newell dan Simon dengan sebuah program yang disebut general Problem Solver.  Program ini dirancang untuk memulai penyelesaian masalah secara manusiawi. Pada tahuan 1958, McCarthy di MIT AI Lab Memo No. 1 mendefinisikan bahasa pemrograman tingkat tinggi yaitu LISP, yang sekarang mendominasi pembuatan program-program AI. Kemudian McCarthy membuat program yang dinamakan Program with Common Sense. Di dalam program tersebut, dibuat rancangan untuk menggunakan rancangan untuk mencari solusi.
Pada tahun 1959, Nathaniel Rochester dari IBM dan mahasiswa-mahasiswanya mengeluarkan program AI yaitu Goemetry Theorm Prover.  Program ini dapat membuktikan suatu teorema menggunakan axioma-axioma yang ada. Pada tahun 1963, program yang dibuat James Slage mampu menyelesaikan masalah integral tertutup untuk mata kuliah Kalkulus. Pada tahun 1968, program analogi buatan Tom Evan menyelesaikan masalah analogi goemetri yang ada pada tes IQ.

Perkembangan AI melambat (1966-1974)

            Prediksi Herbert Simon pada tahun 1957 yang menyatakan bahwa AI akan menjadi ilmu pengetahuan yang akan berkembanga dengan AI melambat. Hal ini disebabkan adanya 3 kesulitan utama yang dihadapai AI, yaitu :
·         Masalah pertama: program-program AI yang bermunculan hanya mengandung sedikit atau bahkan tidak mengandung sama sekali pengetahuan (knowledge) pada subjeknya. Program-program AI berhasil hanya karena menipulasi sintetis yang sederhana. Sebagai contoh adalah Weizenbaum’s ELIZA program (1965) yang dapat melakukan percakapan serius pada topik, sebenarnya hanyalah sebagai peminjaman atau menipulasi kalimat-kalimat yang di ketikkan manusia.
·         Masalah kedua : banyak masalah yang harus diselesaikan oleh AI. Karena terlalu banyaknya masalah yang berkaitan, maka tidak jarang terjadi kegagalan pada pembuatan program AI.
·         Masalah ketiga : ada beberapa batasan struktur dasar yang digunakan untuk menghasilkan perilaku intelejensia. Contohnya dalah pada tahun 1969 buku Minsky dan Papert Perceptrons membutikan bahwa meskipun program – program Perceptrons dapat mepelajari segala sesuatu. Tetapi program-program tersebut hanya mempersentasikan sejumlah kecil saja. Sebagai contoh, dua masukan Perceptrons yang berbeda tidak dapat dilatihkan untuk mengenali kedua masukan yang berdeda tersebut.

Sistem berbasi pengetahuan (1969 – 1979)

            Pengetahuan adalah pendukung AI. Hal ini dibuktikan dengan program yang dibuat oleh Ed Feigenbaum, Bruce Buchanan dan Jhosua Lederberg yang membuat program untuk memecahkan masalah struktur molekul dari informasi yang didapat dari Spectometer massa. Program ini dimanakan Dendral Programs yang berfokus pada segi pengetahuan kimia. Dari segi diagnose juga sudah ada yang menemukannya, yaitu Saul Amarel dalam proyek Computer in Biomedicine. Proyek ini diawali dari keinginan untuk memdapatkan diagnosa penyakit berdasarkan pengetahuan yang ada pada mekanisme penyebab proses penyakit.



AI menjadi sebuah industry (1980-1988)

            Industrialisasi AI diawali dengan ditemukannya Expert system (sistem pakar) yang dinamakan R1 yang mampu mengkonfigurasi sistem-sistem komputer baru. Program tersebut mulai di operasikan di Digital Equipment Corporation (DEC), McDermott pada tahun 1982. Pada tahun 1986, program ini telah berhasil menghemat US$ 40 juta, per tahun. Pada tahun 1988, kelompok AI di DEC menjalankan 40 sistem pakar. Hampir semua perusahaan di USA mempunyai devisi AI sendiri yang menggunakan ataupun mempelajari sistem pakar. Booming industry AI ini juga melibatkan perusahaan – perusahaan seperti Carnegie Group, Inference, Intellocorp, dan Technoledge yang menawarkan Software tools untuk membangun sistem pakar. Perusahaan hardaware seperti LISP Machines Inc, Texas Instrument, Symbolics, dan Xerox juga turut berperan dalam membangun workstation yang dioptimasi untuk pembangunan program LISP. Sehingga, perusahaan yang sejak tahun 1982 hanya menghasikan beberapa juta US dolar pertahun meningkat menjadi 2 milyar US dolar per tahun pada tahun 1988.

Kembalinya jaringan Syaraf Tiruan (1986- sekarang)


            Meskipun bidang ilmu kemputer menolak jaringan saraf tiruan setelah diterbitkannya buku “Percecptrons” karangan Minsky dan Papert, tetapi para ilmuwan masih mempelajari bidang ilmu tersebut dari sudut pandang yang lain yaitu fisika. Para ahli fisika seperti Hopfield (1982) menggunakan teknik-teknik mekanika statistika untuk menganalisa sifat-sifat penyimpanan dan optimasi pada jaringan saraf. Para ahli psikologi, David Rumelhart dan Geoff Hinton, melanjutkan penelitian mengenal model jaringan syaraf. Para ahli psikologi, David Rumelhart dan Geoff Hinton, melanjutkan penelitian mengenai model jaringan syaraf pada memori. Pada tahun 1985-an sedikitnya empat kelompok riset menemukan kembali algoritma belajar propagasi balik (Back-Propagation learning). Algoritma ini berhasil diinplementasikan kedalam bidang ilmu komputer dan psikologi.




1 comments:

  1. ngambil dari buku AI yg dibuat ama Suyanto ya..
    btw thanks ya
    jadi ga perlu ketik lama lama lagi w
    tinggal copas ae :v

    ReplyDelete