Genesis AI : Siklus Hype Pertama

Setiap dekade tampaknya memiliki kata kunci teknologinya: kami memiliki komputer pribadi pada 1980-an, Internet dan web di seluruh dunia pada 1990-an, ponsel pintar dan media sosial di tahun 2000-an dan Artificial Intelligence (AI) dan Machine Learning dalam dekade ini. Namun, bidang AI berusia 67 tahun dan ini adalah yang pertama dari serangkaian lima artikel di mana:

  1. Artikel ini membahas asal usul AI dan siklus hype pertama selama tahun 1950 dan 1982
  2. Artikel kedua membahas kebangkitan AI dan pencapaiannya selama 1983-2010
  3. Artikel ketiga membahas domain di mana sistem AI sudah menyaingi manusia
  4. Artikel keempat membahas siklus hype saat ini dalam Kecerdasan Buatan
  5. Artikel kelima membahas tentang apa yang diperkirakan 2018-2035 untuk otak, pikiran, dan mesin

Pengantar

Sementara kecerdasan buatan (AI) adalah salah satu topik yang paling populer saat ini, fakta yang sering dilupakan adalah bahwa itu sebenarnya lahir pada tahun 1950 dan mengalami siklus hype antara tahun 1956 dan 1982. Tujuan artikel ini adalah untuk menyoroti beberapa pencapaian yang diambil terjadi selama fase boom dari siklus ini dan jelaskan apa yang menyebabkan fase bustnya. Pelajaran yang dapat dipetik dari siklus hype ini tidak boleh diabaikan – keberhasilannya membentuk pola dasar untuk algoritma pembelajaran mesin yang digunakan saat ini, dan kekurangannya menunjukkan bahaya antusiasme yang berlebihan dalam bidang penelitian dan pengembangan yang menjanjikan.


Pertanyaan Perintis

Meskipun komputer pertama dikembangkan selama Perang Dunia II [1,2], apa yang tampaknya benar-benar memicu bidang AI adalah pertanyaan yang diajukan oleh Alan Turing pada tahun 1950 [3]: dapatkah mesin meniru kecerdasan manusia? Dalam makalahnya yang berjudul “Computing Machinery and Intelligence”, ia merumuskan sebuah permainan, yang disebut permainan imitasi, di mana seorang manusia, komputer, dan seorang interogator (manusia) berada di tiga ruangan yang berbeda. Tujuan interogator adalah untuk membedakan manusia dari komputer dengan mengajukan serangkaian pertanyaan dan membaca tanggapan mereka yang diketik; tujuan komputer adalah untuk meyakinkan interogator bahwa itu adalah manusia [3]. Dalam wawancara BBC tahun 1952, Turing menyarankan bahwa, pada tahun 2000, rata-rata interogator akan memiliki kurang dari 70% kesempatan untuk mengidentifikasi manusia dengan benar setelah sesi lima menit [4].

Turing bukan satu-satunya yang bertanya apakah sebuah mesin dapat memodelkan kehidupan cerdas. Pada tahun 1951, Marvin Minsky, seorang mahasiswa pascasarjana yang terinspirasi oleh penelitian ilmu saraf sebelumnya yang menunjukkan bahwa otak terdiri dari jaringan listrik neuron yang menembakkan semua atau tidak sama sekali, mencoba untuk memodelkan perilaku tikus secara komputasi. Bekerja sama dengan mahasiswa pascasarjana fisika Dean Edmonds, ia membangun mesin jaringan saraf pertama yang disebut Stochastic Neural Analogy Reinforcement Computer (SNARC) [5]. Meskipun primitif (terdiri dari sekitar 300 tabung vakum dan motor), ia berhasil memodelkan perilaku tikus dalam labirin kecil mencari makanan [5].

Gagasan bahwa mungkin untuk membuat mesin yang cerdas memang menarik, dan hal itu menyebabkan beberapa perkembangan selanjutnya. Misalnya, Arthur Samuel membangun program bermain catur pada tahun 1952 yang merupakan program belajar mandiri pertama di dunia [15]. Kemudian, pada tahun 1955, Newell, Simon dan Shaw membangun Logic Theorist, yang merupakan program pertama yang meniru keterampilan pemecahan masalah manusia dan akhirnya akan membuktikan 38 dari 52 teorema pertama di Whitehead dan Russell's Principia Mathematica [6].


Awal dari Fase Boom

Terinspirasi oleh keberhasilan ini, profesor muda Dartmouth John McCarthy menyelenggarakan konferensi pada tahun 1956 untuk mengumpulkan dua puluh peneliti perintis dan, "menjelajahi cara untuk membuat mesin yang dapat bernalar seperti manusia, mampu berpikir abstrak, pemecahan masalah, dan perbaikan diri" [7]. Itu dalam proposal 1955 untuk konferensi ini di mana istilah, "kecerdasan buatan," diciptakan [7,40,41,42] dan pada konferensi inilah AI memperoleh visi, misi, dan sensasinya.

Para peneliti segera mulai membuat klaim berani tentang permulaan kecerdasan mesin yang kuat, dan banyak yang mengantisipasi bahwa mesin secerdas manusia akan ada tidak lebih dari satu generasi [40, 41, 42]. Misalnya:

• Pada tahun 1958, Simon dan Newell berkata, "dalam sepuluh tahun komputer digital akan menjadi juara catur dunia," dan, "dalam sepuluh tahun komputer digital akan menemukan dan membuktikan teorema matematika baru yang penting"[8].

• Pada tahun 1961, Minsky menulis, “dalam masa hidup kita, mesin mungkin melampaui kita dalam kecerdasan umum,” [9] dan pada tahun 1967 ia mengulangi, “dalam satu generasi, saya yakin, beberapa kompartemen kecerdasan akan tetap berada di luar ranah mesin – masalah menciptakan 'kecerdasan buatan' akan terpecahkan secara substansial” [10, 11, 12].

Dalam masa hidup kita, mesin mungkin melampaui kita dalam kecerdasan umum
 – Marvin Minsky, 1961

AI bahkan menarik perhatian Hollywood. Pada tahun 1968, Arthur Clarke dan Stanley Kubrick memproduksi film, 2001: A Space Odyssey, yang antagonisnya adalah komputer dengan kecerdasan buatan, HAL 9000 menunjukkan kreativitas, rasa humor, dan kemampuan untuk melawan siapa pun yang mengancam kelangsungan hidupnya. Ini didasarkan pada keyakinan yang dipegang oleh Turing, Minsky, McCarthy dan banyak lainnya bahwa mesin seperti itu akan ada pada tahun 2000; pada kenyataannya, Minsky menjabat sebagai penasihat untuk film ini dan salah satu karakternya, Victor Kaminski, dinamai untuk menghormatinya.


Sub-Bidang AI Lahir

Antara tahun 1956 dan 1982, antusiasme yang tak kunjung padam di AI menyebabkan pekerjaan mani, yang melahirkan beberapa subbidang AI yang dijelaskan di bawah ini. Sebagian besar pekerjaan ini mengarah pada prototipe pertama untuk teori modern AI.


Sistem Berbasis Aturan

Sistem pakar berbasis aturan mencoba memecahkan masalah kompleks dengan menerapkan serangkaian aturan "jika-maka-lain". Salah satu keuntungan sistem tersebut adalah bahwa instruksi mereka (apa yang harus dilakukan program ketika melihat "jika" atau "lain") fleksibel dan dapat dimodifikasi baik oleh pembuat kode, pengguna atau program itu sendiri. Sistem pakar seperti itu dibuat dan digunakan pada 1970-an oleh Feigenbaum dan rekan-rekannya [13], dan banyak di antaranya merupakan blok fondasi untuk sistem AI saat ini.


Pembelajaran Mesin

Bidang pembelajaran mesin diciptakan oleh Arthur Samuel pada tahun 1959 sebagai, "bidang studi yang memberikan komputer kemampuan untuk belajar tanpa diprogram secara eksplisit" [14]. Pembelajaran mesin adalah bidang yang luas dan penjelasan terperincinya berada di luar cakupan artikel ini. Artikel kedua dalam seri ini – lihat Prolog di halaman pertama dan [57] – akan membahas secara singkat subbidang dan aplikasinya. Namun, di bawah ini kami berikan salah satu contoh program pembelajaran mesin, yang dikenal sebagai jaringan perceptron.

Pembelajaran mesin adalah bidang studi yang memberi komputer kemampuan untuk belajar tanpa diprogram secara eksplisit
– Arthur Samuel, 1959

Jaringan Perceptron Tunggal dan Multilayer

Terinspirasi oleh karya McCulloch dan Pitts pada tahun 1943 dan Hebb pada tahun 1949 [15,16], Rosenblatt pada tahun 1957 memperkenalkan jaringan perceptron sebagai model buatan dari neuron yang berkomunikasi [17]. Model ini ditunjukkan pada Gambar 5 dan dapat dijelaskan secara singkat sebagai berikut. Satu lapisan simpul, di mana variabel input dimasukkan, terhubung ke lapisan simpul tersembunyi (juga disebut perceptrons), yang pada gilirannya terhubung ke lapisan keluaran perceptron. Sinyal yang datang melalui koneksi dari simpul input ke perceptron di lapisan tersembunyi dikalibrasi oleh "bobot" yang terkait dengan koneksi itu, dan bobot ini diberikan selama "proses pembelajaran". Sinyal dari perceptron lapisan tersembunyi ke perceptron lapisan keluaran dikalibrasi dengan cara yang analog. Seperti neuron manusia, sebuah perceptron "terbakar" jika berat total semua sinyal yang masuk melebihi potensi yang ditentukan.

 Namun, tidak seperti manusia, sinyal dalam model ini hanya ditransmisikan ke lapisan keluaran, itulah sebabnya jaringan ini sering disebut "maju-maju". Jaringan perceptron dengan hanya satu lapisan perceptron yang tersembunyi (yaitu, dengan dua lapisan koneksi tepi tertimbang) kemudian dikenal sebagai jaringan saraf tiruan "dangkal". Meskipun jaringan dangkal terbatas kekuatannya, Rosenblatt berhasil membuat jaringan perceptron satu lapis, yang disebutnya menciptakan Mark 1, yang mampu mengenali gambar dasar [17]. , dengan dua lapisan koneksi tepi berbobot) kemudian dikenal sebagai jaringan saraf tiruan "dangkal". Meskipun jaringan dangkal terbatas kekuatannya, Rosenblatt berhasil membuat jaringan perceptron satu lapis, yang disebutnya menciptakan Mark 1, yang mampu mengenali gambar dasar [17]. , dengan dua lapisan koneksi tepi berbobot) kemudian dikenal sebagai jaringan saraf tiruan "dangkal". Meskipun jaringan dangkal terbatas kekuatannya, Rosenblatt berhasil membuat jaringan perceptron satu lapis, yang disebutnya menciptakan Mark 1, yang mampu mengenali gambar dasar [17].

Hari ini, kegembiraannya adalah tentang jaringan saraf "dalam" (dua atau lebih lapisan tersembunyi), yang juga dipelajari pada 1960-an. Memang, algoritma pembelajaran umum pertama untuk jaringan dalam kembali ke karya Ivakhnenko dan Lapa pada tahun 1965 [18,19]. Jaringan sedalam delapan lapisan dipertimbangkan oleh Ivakhnenko pada tahun 1971, ketika ia juga memberikan teknik untuk melatih mereka [20].


Pemrosesan Bahasa Alami (NLP)

Pada tahun 1957 Chomsky merevolusi linguistik dengan tata bahasa universal, sistem berbasis aturan untuk memahami sintaksis [21]. Ini membentuk model pertama yang peneliti bisa gunakan untuk membuat sistem NLP sukses di tahun 1960-an, termasuk SHRDLU, sebuah program yang bekerja dengan kosakata kecil dan sebagian mampu memahami dokumen tekstual dalam domain tertentu [22]. Selama awal 1970-an, para peneliti mulai menulis ontologi konseptual, yang merupakan struktur data yang memungkinkan komputer untuk menafsirkan hubungan antara kata, frasa, dan konsep; ontologi ini secara luas tetap digunakan sampai sekarang [23].


Pengenalan Pembicara dan Pemrosesan Pidato ke Teks

Pertanyaan apakah komputer dapat mengenali ucapan pertama kali diajukan oleh sekelompok tiga peneliti di AT&T Bell Labs pada tahun 1952, ketika mereka membangun sistem untuk pengenalan digit terisolasi untuk satu pembicara [24]. Sistem ini sangat ditingkatkan selama akhir 1960-an, ketika Reddy menciptakan Hearsay I, sebuah program yang memiliki akurasi rendah tetapi merupakan salah satu yang pertama untuk mengubah ucapan terus menerus kosa kata besar menjadi teks. Pada tahun 1975, murid-muridnya Baker dan Baker menciptakan Sistem Naga [25], yang selanjutnya ditingkatkan pada Hearsay I dengan menggunakan Model Markov Tersembunyi (HMM), model probabilistik terpadu yang memungkinkan mereka untuk menggabungkan berbagai sumber seperti akustik, bahasa, dan sintaksis. Hari ini, HMM tetap menjadi kerangka kerja yang efektif untuk pengenalan suara [26].


Pemrosesan Gambar dan Visi Komputer

Pada musim panas 1966, Minsky mempekerjakan seorang mahasiswa sarjana tahun pertama di MIT dan memintanya untuk memecahkan masalah berikut: menghubungkan kamera televisi ke komputer dan membuat mesin untuk menggambarkan apa yang dilihatnya [27]. Tujuannya adalah untuk mengekstrak struktur tiga dimensi dari gambar, sehingga memungkinkan sistem sensorik robot untuk sebagian meniru sistem visual manusia. Penelitian dalam visi komputer pada awal 1970-an membentuk dasar bagi banyak algoritma yang ada saat ini, termasuk mengekstraksi tepi dari gambar, memberi label garis dan lingkaran, dan memperkirakan gerakan dalam video [28].


Aplikasi Komersial

Kemajuan teoretis di atas menyebabkan beberapa aplikasi, yang sebagian besar tidak digunakan dalam praktik pada waktu itu, tetapi mengatur panggung untuk turunannya untuk digunakan secara komersial nanti. Beberapa aplikasi ini dibahas di bawah ini.


Chatterbots atau Chat-Bots

Antara 1964 dan 1966, Weizenbaum menciptakan chat-bot pertama, ELIZA, dinamai Eliza Doolittle yang diajari berbicara dengan benar dalam novel Bernard Shaw, Pygmalion (kemudian diadaptasi menjadi film, My Fair Lady). ELIZA dapat melakukan percakapan yang terkadang membodohi pengguna agar percaya bahwa mereka sedang berkomunikasi dengan manusia tetapi, seperti yang terjadi, ELIZA hanya memberikan tanggapan standar yang seringkali tidak berarti [29]. Kemudian pada tahun 1972, peneliti medis Colby menciptakan chatbot "paranoid", PARRY, yang juga merupakan program tanpa pikiran. Namun, dalam permainan imitasi singkat, psikiater tidak dapat membedakan ocehan PARRY dari manusia paranoid [30].


Robotika

Pada tahun 1954, Devol membangun robot pertama yang dapat diprogram yang disebut, Unimate, yang merupakan salah satu dari sedikit penemuan AI pada masanya yang akan dikomersialkan; itu dibeli oleh General Motors pada tahun 1961 untuk digunakan di jalur perakitan mobil [31]. Secara signifikan meningkatkan Unimate, pada tahun 1972, para peneliti di Universitas Waseda pada tahun 1972 membangun robot humanoid cerdas skala penuh pertama di dunia, WABOT-1 [32]. Meskipun hampir seperti mainan, sistem anggota tubuhnya memungkinkannya berjalan dan menggenggam serta mengangkut benda dengan tangan; sistem penglihatannya (terdiri dari mata dan telinga buatannya) memungkinkannya mengukur jarak dan arah ke objek; dan mulut buatannya memungkinkannya untuk berkomunikasi dalam bahasa Jepang [32]. Hal ini secara bertahap menghasilkan karya inovatif dalam visi mesin, termasuk pembuatan robot yang dapat menumpuk balok [33].


Fase Bust dan AI Musim Dingin

Meskipun beberapa keberhasilan, pada tahun 1975 program AI sebagian besar terbatas pada pemecahan masalah yang belum sempurna. Di belakang, peneliti menyadari dua masalah mendasar dengan pendekatan mereka.


Daya Komputasi Terbatas dan Mahal

Pada tahun 1976, superkomputer tercepat di dunia (yang akan menelan biaya lebih dari lima juta Dolar AS) hanya mampu melakukan sekitar 100 juta instruksi per detik [34]. Sebaliknya, studi tahun 1976 oleh Moravec menunjukkan bahwa bahkan pencocokan tepi dan kemampuan deteksi gerakan saja dari retina manusia akan membutuhkan komputer untuk mengeksekusi instruksi tersebut sepuluh kali lebih cepat [35]. Demikian pula, manusia memiliki sekitar 86 miliar neuron dan satu triliun sinapsis; perhitungan dasar menggunakan angka yang disediakan di [36,37] menunjukkan bahwa membuat jaringan perceptron sebesar itu akan menelan biaya lebih dari 1,6 triliun USD, menghabiskan seluruh PDB AS pada tahun 1974.


Misteri Dibalik Pemikiran Manusia

Para ilmuwan tidak memahami bagaimana fungsi otak manusia dan terutama tetap tidak menyadari mekanisme neurologis di balik kreativitas, penalaran dan humor. Kurangnya pemahaman tentang program pembelajaran mesin apa yang harus coba ditiru merupakan hambatan signifikan untuk memajukan teori kecerdasan buatan. Bahkan, pada 1970-an, para ilmuwan di bidang lain bahkan mulai mempertanyakan gagasan, 'meniru otak manusia', yang diajukan oleh para peneliti AI. Sebagai contoh, beberapa berpendapat bahwa jika simbol tidak memiliki 'makna' untuk mesin, maka mesin tidak dapat digambarkan sebagai 'berpikir' [38].

Akhirnya menjadi jelas bagi para perintis bahwa mereka terlalu meremehkan kesulitan menciptakan komputer AI yang mampu memenangkan permainan imitasi. Misalnya, pada tahun 1969, Minsky dan Papert menerbitkan buku, Perceptrons [39], di mana mereka menunjukkan keterbatasan parah dari perceptron lapisan satu tersembunyi Rosenblatt. Ditulis bersama oleh salah satu pendiri kecerdasan buatan sambil membuktikan kekurangan perceptron, buku ini berfungsi sebagai pencegah serius terhadap penelitian di jaringan saraf selama hampir satu dekade [40,41,42].

Pada tahun-tahun berikutnya, peneliti lain mulai berbagi keraguan Minsky tentang masa depan AI yang kuat. Misalnya, dalam konferensi tahun 1977, John McCarthy yang sekarang jauh lebih berhati-hati mencatat bahwa menciptakan mesin seperti itu akan membutuhkan 'terobosan konseptual', karena 'yang Anda inginkan adalah 1,7 Einstein dan 0,3 Proyek Manhattan, dan Anda menginginkan Einstein terlebih dahulu. Saya percaya itu akan memakan waktu lima sampai 500 tahun' [43].

Kehebohan tahun 1950-an telah meningkatkan harapan ke ketinggian yang begitu berani sehingga, ketika hasilnya tidak terwujud pada tahun 1973, pemerintah AS dan Inggris menarik dana penelitian di AI [41]. Meskipun pemerintah Jepang untuk sementara menyediakan dana tambahan pada tahun 1980, dengan cepat menjadi kecewa pada akhir 1980-an dan menarik kembali investasinya [42, 40]. Fase kegagalan ini (khususnya antara 1974 dan 1982) biasanya disebut sebagai “musim dingin AI”, karena penelitian tentang kecerdasan buatan hampir berhenti total. Memang, selama ini dan tahun-tahun berikutnya, "beberapa ilmuwan komputer dan insinyur perangkat lunak akan menghindari istilah kecerdasan buatan karena takut dipandang sebagai pemimpi bermata liar" [44].

Karena yang Anda inginkan adalah 1,7 Einstein dan 0,3 dari Proyek Manhattan, dan Anda menginginkan Einstein terlebih dahulu. Saya percaya itu akan memakan waktu lima hingga 500 tahun
 – John McCarthy, 1977

Sikap yang berlaku selama periode 1974-1982 sangat disayangkan, karena beberapa kemajuan substansial yang terjadi selama periode ini pada dasarnya tidak diperhatikan, dan upaya yang signifikan dilakukan untuk menciptakannya kembali. Dua kemajuan tersebut adalah sebagai berikut:

• Yang pertama adalah teknik backpropagation, yang umum digunakan saat ini untuk melatih jaringan saraf secara efisien dalam menetapkan bobot yang mendekati optimal ke tepinya. Meskipun diperkenalkan oleh beberapa peneliti secara independen (misalnya, Kelley, Bryson, Dreyfus, dan Ho) pada tahun 1960 [45] dan dilaksanakan oleh Linnainmaa pada tahun 1970 [46], hal itu diabaikan. Demikian pula, tesis 1974 Werbos yang mengusulkan bahwa teknik ini dapat digunakan secara efektif untuk melatih jaringan saraf tidak diterbitkan sampai tahun 1982, ketika fase payudara mendekati akhir [47,48]. Pada tahun 1986, teknik ini ditemukan kembali oleh Rumelhart, Hinton dan Williams, yang mempopulerkannya dengan menunjukkan signifikansi praktisnya [49].

• Yang kedua adalah jaringan saraf berulang (RNN), yang analog dengan jaringan perceptron Rosenblatt yang tidak feed-forward karena memungkinkan koneksi menuju lapisan input dan output. Jaringan seperti itu diusulkan oleh Little pada tahun 1974 [55] sebagai model otak yang lebih akurat secara biologis. Sayangnya, RNN tidak diperhatikan sampai Hopfield mempopulerkannya pada tahun 1982 dan meningkatkannya lebih lanjut [50,51].


Akhir Kata

Karakteristik yang menentukan dari siklus hype adalah fase boom, ketika peneliti, pengembang, dan investor menjadi terlalu optimis dan terjadi pertumbuhan yang luar biasa, dan fase bust, ketika investasi ditarik, dan pertumbuhan berkurang secara substansial. Dari cerita yang disajikan dalam artikel ini, kita dapat melihat bahwa AI mengalami siklus seperti itu selama tahun 1956 dan 1982.

Terlahir dari visi Turing dan Minsky bahwa sebuah mesin dapat meniru kehidupan cerdas, AI menerima nama, misi, dan sensasinya dari konferensi yang diselenggarakan oleh McCarthy di Dartmouth University pada tahun 1956. Ini menandai dimulainya fase boom dari siklus sensasi AI . Antara tahun 1956 dan 1973, banyak kemajuan teoretis dan praktis yang ditemukan di bidang AI, termasuk sistem berbasis aturan; jaringan saraf dangkal dan dalam; pemrosesan bahasa alami; pemrosesan ucapan; dan pengenalan gambar. Pencapaian yang terjadi selama ini membentuk pola dasar awal untuk sistem AI saat ini.

Apa yang juga terjadi selama fase boom ini adalah “kegembiraan yang tidak rasional” [52]. Para pionir AI dengan cepat membuat prediksi berlebihan tentang masa depan mesin cerdas buatan yang kuat. Pada tahun 1974, prediksi ini tidak terjadi, dan para peneliti menyadari bahwa janji mereka telah dibesar-besarkan. Pada titik ini, investor juga menjadi skeptis dan menarik dana. Ini menghasilkan fase kegagalan, juga disebut musim dingin AI, ketika penelitian tentang AI lambat dan bahkan istilah "kecerdasan buatan" ditolak. Sebagian besar dari beberapa penemuan selama periode ini, seperti propagasi balik dan jaringan saraf berulang, sebagian besar diabaikan, dan upaya besar dihabiskan untuk menemukannya kembali dalam dekade berikutnya.

Sebagian besar dari beberapa penemuan selama periode ini, seperti propagasi balik dan jaringan saraf berulang, sebagian besar diabaikan, dan upaya besar dihabiskan untuk menemukannya kembali dalam dekade berikutnya. Namun demikian, seperti kebanyakan siklus hype, "tunas hijau" mulai muncul lagi pada pertengahan 1980-an dan ada kebangkitan bertahap penelitian AI selama tahun 1983 dan 2010; kita akan membahas ini dan perkembangan terkait dalam artikel kami berikutnya, "Kebangkitan Kecerdasan Buatan Selama 1983-2010" [57].

Secara umum siklus hype adalah pedang berujung ganda, dan yang dipamerkan oleh AI antara tahun 1956 dan 1982 tidak berbeda. Kehati-hatian harus diambil untuk belajar darinya: keberhasilan fase boomnya harus diingat dan diapresiasi, tetapi antusiasmenya yang berlebihan harus dilihat dengan sedikit skeptis untuk menghindari hukuman penuh dari fase bust.

Back to posts
This post has no comments - be the first one!

UNDER MAINTENANCE

Lamborghini Huracán LP 610-4 t