Mesin vektor pendukung di otak

Penulis:Mimpi kecil, Dibuat: 2017-03-23 12:18:01, Diperbarui:

Mesin vektor pendukung di otak

Support Vector Machine (SVM) adalah sebuah mesin pemroses pembelajaran penting yang menggunakan transformasi non-linear yang cerdik untuk memproyeksikan karakteristik dimensi rendah ke dimensi tinggi, yang dapat melakukan tugas pemrosesan yang lebih kompleks (pemboman dimensi tinggi). SWM tampaknya menggunakan teknik matematika yang kebetulan sesuai dengan mekanisme yang mengkodekan otak, yang dapat kita baca dari sebuah makalah Nature tahun 2013 bahwa hubungan permukaan yang mendalam antara pemahaman tentang pembelajaran mesin dan cara kerja otak adalah dengan menggunakan pembelajaran mesin untuk mempelajari otak. Judul makalah: The importance of mixed selectivity in complex cognitive tasks (by Omri Barak al.)

  • SVM

    Pertama-tama, mari kita bahas tentang koding saraf: hewan menerima sinyal tertentu dan melakukan perilaku tertentu berdasarkannya, satu adalah mengubah sinyal eksternal menjadi sinyal saraf, yang lain mengubah sinyal saraf menjadi sinyal keputusan, proses pertama disebut pengkodean, proses kedua disebut dekoding. Dan tujuan sebenarnya dari dekodean saraf adalah untuk kemudian mengkode untuk membuat keputusan. Oleh karena itu, dengan melihat mesin belajar, cara termudah untuk mengkode adalah dengan membuat sebuah klasifikasi, bahkan model logistik, klasifikasi linier, yang mengkode sinyal masuk sesuai dengan klasifikasi karakteristik tertentu.

    Kemudian mari kita lihat bagaimana pengkodean saraf berlangsung, pertama-tama neuron pada dasarnya dapat dilihat sebagai sirkuit RC yang menyesuaikan daya tahan dan kapasitas sesuai dengan tegangan eksternal, jika sinyal eksternal cukup besar, akan melakukan konduksi, jika tidak, akan ditutup, dan mewakili sinyal dengan frekuensi pelepasan listrik dalam waktu tertentu. Dan ketika kita berbicara tentang pengkodean, seringkali melakukan pemrosesan terdesentralisasi terhadap waktu, dengan alasan bahwa dalam jendela waktu yang kecil, tingkat pelepasan listrik ini tidak berubah, sehingga jaringan saraf dengan tingkat pelepasan sel dalam jendela waktu ini dapat melihat secara berurutan dalam jumlah N dimensi, N adalah neuron individu, dan jumlah N dimensi ini, yang kita sebut sebagai pengkodean, dapat mengekspresikan gambar yang dilihat oleh hewan, atau suara yang didengar, yang akan memicu reaksi sinyal yang sesuai dengan jaringan neural cortex.

    img

    Diagram: sumbu tegak adalah sel, sumbu melintang adalah waktu, dan diagram menunjukkan bagaimana kita mengekstrak kode saraf.

    Pertama, kita masuk ke ruang dimensi N yang ditandai dengan vektor dimensi N ini, dan kemudian kita memberikan semua kombinasi tugas yang mungkin, seperti menunjukkan seribu gambar asumsikan gambar-gambar ini mewakili seluruh dunia, menandai setiap kali kita mendapatkan kode saraf sebagai satu titik di ruang ini, dan akhirnya kita menggunakan pemikiran aljabar vektor untuk melihat dimensi ruang anak yang terdiri dari seribu titik ini, yang diidentifikasi sebagai dimensi sejati dari neural representasi. Saya asumsikan semua titik sebenarnya berada di satu titik di ruang dimensi N ini, maka representasi ini adalah satu dimensi, yang sesuai jika semua titik berada di dua dimensi ruang dimensi tinggi, maka itu adalah dua dimensi. Ilmu pengetahuan telah menemukan bahwa pengkodean neuronal biasanya tidak dapat menggunakan kode tingkat tinggi, tentu saja, jika tidak ada kode neuronal yang sangat rendah, maka sangat diperlukan.

    Selain dimensi nyata dari pengkodean, kita juga memiliki konsep dimensi nyata dari sinyal eksternal, di mana sinyal mengacu pada sinyal eksternal yang diekspresikan oleh jaringan saraf, tentu saja Anda harus mengulangi semua detail sinyal eksternal itu adalah masalah yang tidak terbatas, namun klasifikasi dan keputusan kami selalu didasarkan pada karakteristik kunci, sebuah proses pengurangan dimensi, ini juga adalah ide PCA. Kita dapat melihat variabel kunci dalam tugas nyata sebagai dimensi nyata dari tugas, misalnya jika Anda ingin mengontrol gerakan lengan, Anda biasanya hanya perlu mengontrol sudut putaran sendi, jika Anda melihatnya sebagai masalah fisiomatik, dimensi mungkin tidak lebih dari 10, kita menyebutnya K. Bahkan jika Anda ingin memecahkan masalah wajah, dimensi masih jauh lebih rendah dari jumlah neuron.

    Jadi, para ilmuwan menghadapi pertanyaan inti, mengapa kita harus memecahkan masalah dengan dimensi pengkodean dan jumlah neuron yang jauh lebih tinggi dari masalah yang sebenarnya?

    Dan ilmu saraf komputasi dan pembelajaran mesin bersama-sama menunjukkan kepada kita bahwa karakteristik dimensi tinggi dari ekspresi saraf adalah dasar dari kemampuan belajar yang kuat yang mereka miliki. Menandatangani dimensi yang lebih tinggi, kemampuan belajar yang lebih kuat. Perhatikan bahwa di sini kita bahkan tidak mulai terlibat dalam jaringan dalam. Mengapa kita mengatakan ini?

    Perhatikan bahwa kode saraf yang dibahas di sini terutama mengacu pada kode saraf pusat saraf yang lebih tinggi, seperti Prefrontal Cortex (PFC) yang dibahas dalam artikel ini, karena aturan pengkodean pusat saraf tingkat bawah tidak terlalu terlibat dalam klasifikasi dan pengambilan keputusan.

    img

    Bagian otak yang lebih tinggi yang diwakili PFC

    Misteri dari pengkodean saraf juga diungkapkan dari hubungan antara bilangan neuron N, dan dimensi K dari masalah nyata (keseimbangan ini bisa mencapai 200 kali lipat). Mengapa jumlah neuron yang tampaknya berlebihan dapat menghasilkan lompatan kualitas? Pertama, kita mengasumsikan bahwa ketika dimensi pengkodean kita sama dengan dimensi variabel kunci dalam tugas nyata, kita tidak akan dapat menangani masalah klasifikasi non-linier dengan menggunakan klasifikasi linear (misalnya, jika kita ingin memisahkan sesame dari sesame, kita tidak dapat memisahkan sesame dari sesame dengan batas linear), yang juga merupakan masalah tipikal yang sulit kita selesaikan dalam pembelajaran mendalam dan ketika SVM tidak masuk ke pembelajaran mesin.

    SVM (Support Vectoring):

    img

    SVM dapat melakukan klasifikasi non-linier, misalnya memisahkan titik merah dan titik biru dalam gambar, dengan batas linier kita tidak dapat memisahkan titik merah dan titik biru (gambar kiri), jadi cara menggunakan SVM adalah dengan meningkatkan dimensi. Namun, hanya dengan menambahkan variabel saja tidak mungkin, seperti memetakan x1, x2 ke sistem x1, x2, x1 + x2 yang sebenarnya adalah ruang linier dua dimensi (gambar adalah titik merah dan titik biru di sebuah bidang), hanya dengan menggunakan fungsi non-linier (gambar x1 ^ 2, x1 * x2, x2 ^ 2) kita memiliki penyeberangan dimensi rendah ke dimensi tinggi yang substansial, saat ini Anda hanya membuang titik biru ke udara, dan Anda hanya menggambar titik di ruang kosong, memisahkan permukaan biru dan titik merah, dan kemudian Anda membuka grafik kanan).

    Bahkan, apa yang dilakukan oleh jaringan saraf nyata adalah persis sama. Jenis klasifikasi yang dapat dilakukan oleh pengkode linear seperti itu meningkat secara signifikan, yang berarti kita mendapatkan kemampuan pengenalan pola yang jauh lebih kuat dari sebelumnya. Di sini, dimensi tinggi adalah kekuatan tinggi, dan serangan dimensi tinggi adalah kebenaran.

    Jadi, bagaimana kita mendapatkan dimensi tinggi dari pengkodean neuron? Jumlah neuron yang lebih banyak tidak berguna. Karena kita telah mempelajari aljabar linier, kita tahu bahwa jika kita memiliki sejumlah besar neuron N, dan tingkat pelepasan setiap neuron hanya terkait dengan K karakteristik utama yang linier, maka dimensi akhir yang kita gambarkan hanya sama dengan dimensi masalah itu sendiri, N neuron Anda tidak berperan. Jika Anda ingin memecahkan ini, Anda harus memiliki neuron yang terkait dengan K karakteristik non-linier, di sini kita menyebutnya sebagai neuron campuran non-linier positif, yang memiliki ekspresi yang sangat kompleks, yang memiliki prinsip yang mirip dengan fungsi non-linier di SVM.

    img

    Gambar: Neuron 1 dan 2 hanya sensitif terhadap karakteristik a dan b, masing-masing, 3 sensitif terhadap campuran linier dari karakteristik a dan b, dan 4 sensitif terhadap campuran non-linier dari karakteristik. Akhirnya, hanya kombinasi neuron 1, 2, 4 yang meningkatkan dimensi pengkodean saraf (gambar di bawah).

    Nama resmi dari pengkodean ini adalah "mixed selectivity", yang kita anggap tidak dapat dimengerti sampai orang menemukan prinsip pengkodean ini, karena itu adalah respon jaringan saraf terhadap suatu sinyal yang tampak berantakan. Dalam sistem saraf sekitar, fungsi neuron seperti sensor untuk mengekstrak dan mengenali pola yang berbeda dari sinyal. Fungsi masing-masing sel saraf cukup spesifik, seperti rod dan kerucut retina yang bertanggung jawab untuk menerima foton, yang kemudian diteruskan oleh sel Gangelion, dan setiap neuron seperti penjaga yang dilatih secara profesional.

    Setiap detail alam yang tertanam dalam fantasi, banyak redundansi dan pengkodean campuran yang tampaknya tidak profesional, tampaknya sinyal yang berantakan, akhirnya menghasilkan kemampuan komputasi yang lebih baik. Dengan prinsip ini, kita dapat dengan mudah menangani beberapa tugas seperti:

    img

    Dalam tugas ini, monyet pertama kali dilatih untuk membedakan apakah sebuah gambar sama dengan yang sebelumnya, kemudian dilatih untuk menilai urutan munculnya dua gambar yang berbeda. Untuk menyelesaikan tugas tersebut, monyet harus dapat mengkodekan sisi-sisi tugas yang berbeda, seperti jenis tugas (recall or recognition), jenis gambar, dan sebagainya, dan ini adalah tes yang sangat baik untuk menguji apakah ada mekanisme pengkodean non-linier campuran.

    Setelah membaca artikel ini, kita tahu bahwa mendesain jejaring saraf dengan memasukkan beberapa unit non-linear dapat meningkatkan kemampuan pengenalan pola secara signifikan, dan bahwa SVM telah menerapkannya untuk mengatasi masalah klasifikasi non-linear.

    Kami mempelajari fungsi area otak, terlebih dahulu untuk memproses data dengan metode pembelajaran mesin, seperti menemukan dimensi-dimensi kunci dari masalah dengan PCA, kemudian untuk memahami kode dan pengkodean saraf dengan pola belajar mesin yang mengenali pemikiran, dan akhirnya jika kita mendapatkan inspirasi baru, kita dapat memperbaiki metode pembelajaran mesin. Untuk otak atau algoritma pembelajaran mesin, yang paling penting pada akhirnya adalah cara yang paling tepat untuk mendapatkan informasi, dan dengan deskripsi yang baik, semuanya mudah dilakukan.

Dikutip dari: http://www.cruisertechnology.com/


Lebih banyak