Sinirbilim

Labirentteki Fareler Kemirgen Öğrenme ve Bilişine Yeni Bir Işık Tutuyor

Özet: Araştırmacılar, ödüle dayalı öğrenme görevlerindeki bilişsel stratejileri hakkındaki önceki varsayımları sorgulayarak fare davranışlarını daha derinlemesine incelediler.

İnsanlar “tersine öğrenme” faaliyetlerinde “kazan-kal, kaybet-kaybet” yaklaşımını etkili bir şekilde benimserken, farelerin bunu keşif stratejisiyle harmanladığı gözlemlendi. Fareler, kurala dayalı optimal bir stratejiye bağlı kalmak yerine zaman zaman farklılaştı; bu da muhtemelen tutarlı ödüller konusunda doğuştan gelen bir şüpheciliğin işaretiydi.

Değiştirilmiş bir Gizli Markov Modeli kullanılarak ortaya çıkarılan, fare bilişine ilişkin bu yeni anlayış, insandaki nörolojik bozuklukların anlaşılması için heyecan verici yollar sunuyor.

Ana unsurlar:

  1. Fareler, tersine öğrenme görevi sırasında optimal “kazan-kal, kaybet-vardiya” stratejisinin ve daha keşfedici bir yaklaşımın bir karışımını sergiledi.
  2. Araştırmacılar, farelerin kullandığı vites değiştirme stratejilerini doğru bir şekilde çözmek için blokHMM adı verilen değiştirilmiş bir Gizli Markov Modeli kullandılar.
  3. Bu bulgular, tersine öğrenme davranışının değiştiği şizofreni ve otizm gibi nörolojik bozukluklara dair içgörü sağlayabilir.

Kaynak: İLE

Belleğin doğasından hastalık tedavilerine kadar uzanan sinirbilim keşifleri, farelerin zihinlerinin okunmasına dayanıyordu; bu nedenle araştırmacıların, deneyler sırasında kemirgenlerin davranışlarının onlara ne söylediğini gerçekten anlamaları gerekiyor.

Ödülden öğrenmeyi inceleyen yeni bir çalışmada, MIT araştırmacıları başlangıçta gizemli olan bazı fare davranışlarını deşifre ederek farelerin nasıl düşündüğüne dair yeni fikirler ve gelecekteki araştırmalara yardımcı olacak bir matematiksel araç ortaya çıkardı.

Bu labirentteki bir fareyi gösteriyor.
Le, “Farelerin sandığımızdan daha akıllı olduğunu düşünmek isterim” dedi. Kredi: Nörobilim Haberleri

Farelerin ustalaşması gereken görev basitti: Bir ödül almak için tekerleği sola veya sağa çevirin ve ardından ödül yönünün değiştiğini fark edin. Nörotipik insanlar bu tür “tersine öğrenme” oyunları oynadığında, en uygun yaklaşımı hızla çıkarırlar: işe yaramayan yöne sadık kalın ve sonra hemen değiştirin.

Özellikle şizofreni hastaları bu görevle mücadele ediyor. Yeni çalışmada PLOS Hesaplamalı BiyolojiFareler, “kazan-kal, kaybet-vardiya” stratejisini öğrenme yeteneğine sahip olmalarına rağmen yine de bunu tam olarak benimsemeyi reddettiklerini göstererek bilim adamlarını şaşırttı.

Picower Öğrenme ve Bellek Enstitüsü ve MIT’nin Beyin ve Bilişsel Bilimler Bölümü’nde (BCS) Newton Profesörü olan ilgili yazar Mriganka Sur, “Fareler bu ortamın çıkarım temelli bir modelini oluşturamazlar değil, yapabilirler” dedi. “Şaşırtıcı olan şey, bunda ısrar etmemeleridir. Bir tarafta ödülün yüzde 100 olduğunu bildiğiniz tek bir blokta bile, arada sırada diğer tarafı deneyecekler.”

Araştırmanın başyazarı ve Sur Lab yüksek lisans öğrencisi Nhat Le, farelerin optimal stratejiden ayrılma motifinin bunu hafızada tutmadaki başarısızlıktan kaynaklanabileceğini söyledi; diğer bir olasılık da farelerin “kazan-kal, kaybet” ilkesine bağlı kalmamasıdır. -değişim” yaklaşımını tercih ediyorlar çünkü koşullarının istikrarlı veya öngörülebilir kalacağına güvenmiyorlar.

Bunun yerine kuralların değişip değişmediğini test etmek için optimal rejimden sapabilirler. Sonuçta doğal ortamlar nadiren istikrarlı veya öngörülebilirdir.

Le, “Farelerin sandığımızdan daha akıllı olduğunu düşünmek isterim” dedi.

Ancak BCS ve McGovern Beyin Araştırmaları Enstitüsü’nde doçent olan eş-kıdemli yazar Mehrdad Jazayeri, hangi nedenin farelerin stratejileri karıştırmasına neden olabileceğine bakılmaksızın, araştırmacıların bunu yaptıklarını fark etmeleri ve ne zaman bunu söyleyebilmeleri gerektiğini ekledi. ve bir stratejiyi veya diğerini nasıl seçtiklerini.

“Bu çalışma, kabul edilen düşüncenin aksine, laboratuvar görevlerini yapan farelerin mutlaka sabit bir strateji benimsemediğini ve bu tür durağan olmayan durumları tespit etmek ve ölçmek için hesaplama açısından titiz bir yaklaşım sunduğunu vurguluyor” dedi.

“Bu yetenek önemlidir, çünkü araştırmacılar sinirsel aktiviteyi kaydederken, altta yatan algoritma ve mekanizmalara ilişkin yorumları, hayvanların değişim stratejilerini hesaba katmadıklarında geçersiz olabilir.”

Düşünceyi izleme

Eski bir Sur laboratuarı doktora sonrası öğrencisi olan ve şu anda Cleveland Clinic Lerner Araştırma Enstitüsü’nde yardımcı doçent olan ortak yazar Murat Yıldırım’ın da dahil olduğu araştırma ekibi, başlangıçta farelerin şu veya bu stratejiyi benimseyebileceğini bekliyordu.

Farelerin görevle ilgili bir kural çıkarmak için en uygun stratejiyi benimseyip benimsemediklerini veya sola veya sağa dönüşlerin ödüllendirilip ödüllendirilmediğini daha rastgele araştırıp izlemediklerini görmeyi bekledikleri sonuçları simüle ettiler. Farelerin görevdeki davranışları günler sonra bile büyük farklılıklar gösterdi ancak hiçbir zaman tek bir stratejiyle simüle edilen sonuçlara benzemedi.

Farenin görevdeki performansı, farklı boyutlarda, üç parametre boyunca farklılığı yansıtıyordu: kural değiştirildikten sonra ne kadar hızlı yön değiştirdiler, yeni yöne geçişleri ne kadar sürdü ve yeni yöne ne kadar sadık kaldılar.

21 fareden elde edilen ham veriler, nörotipik insanların eşit şekilde optimize ettiği bir görevin sonuçlarının şaşırtıcı çeşitliliğini temsil ediyordu. Ancak fareler açıkça çaresiz değildi. Ortalama performansları, optimum seviyenin altında sabit kalsa da zaman içinde önemli ölçüde arttı.

Görevde, ödüllendirilen taraf her 15-25 turda bir değişti. Ekip, farelerin oyundaki her bir “blok”ta, yalnızca basit kural çıkarımı yapmak ve bu çıkarıma dayalı olarak optimizasyon yapmak yerine birden fazla strateji kullandığını fark etti.

Ekip, farelerin bu stratejiyi veya başka bir stratejiyi kullandığı zamanı çözmek için, Gizli Markov Modeli (HMM) adı verilen analitik bir çerçeveden yararlandı; bu, görünmeyen bir durumun, başka bir görünmeyen duruma karşı bir sonuç ürettiğini hesaplamalı olarak belirleyebilir. Le, bunu bir yemek yarışması jürisinin yaptığı şeye benzetiyor: Önlerindeki her yemek tabağındaki desenlere dayanarak hangi şef yarışmacısının yemeğin hangi versiyonunu yaptığını çıkarsamak.

Ancak ekibin fare performansı sonuçlarını çözmek için HMM’yi kullanmadan önce onu uyarlamaları gerekiyordu. Tipik bir HMM, bireysel fare seçimleri için geçerli olabilir, ancak burada ekip, tüm bloklar boyunca seçim geçişlerini açıklayacak şekilde onu değiştirdi.

Değiştirilmiş modellerine BlockHMM adını verdiler. BlockHMM kullanılarak görev performansının hesaplamalı simülasyonları, algoritmanın yapay bir ajanın gerçek gizli durumlarını çıkarabildiğini gösterdi. Yazarlar daha sonra bu tekniği farelerin sürekli olarak birden fazla stratejiyi harmanlayarak çeşitli performans seviyelerine ulaştıklarını göstermek için kullandılar.

Le ve ortak yazarları, “Her hayvanın, tek bir alandaki davranış yerine birden fazla rejimden oluşan bir davranış karışımı sergilediğini doğruladık” diye yazdı.

“Aslında 17/21 fareleri düşük, orta ve yüksek performanslı davranış modlarının bir kombinasyonunu kullandı.”

Daha ileri analizler, mevcut stratejilerin aslında “doğru” kural çıkarım stratejisi olduğunu ve adım adım geri bildirim almak için rastgele test seçenekleriyle tutarlı, daha keşfedici bir strateji olduğunu ortaya çıkardı.

Artık araştırmacılar, farelerin tersine öğrenmeye yönelik tuhaf yaklaşımını çözdüğüne göre, hangi beyin bölgelerinin ve devrelerinin dahil olduğunu anlamak için beyne daha derinlemesine bakmayı planlıyorlar. Görev sırasında beyin hücresi aktivitesini izleyerek, farelerin strateji değiştirmek için aldıkları kararların altında yatan şeyin ne olduğunu anlamayı umuyorlar.

Sur, tersine öğrenme devrelerini ayrıntılı olarak inceleyerek ekibin, şizofreni hastalarının tersine öğrenme görevlerinde neden düşük performans gösterdiğini açıklamaya yardımcı olabilecek içgörüler kazanmasının mümkün olduğunu söyledi.

Sur, otizm spektrum bozukluğu olan bazı kişilerin yeni ödüllendirilmemiş davranışlara nörotipik insanlardan daha uzun süre devam ettiğini, dolayısıyla laboratuvarının da araştırırken bu fenomeni akılda tutacağını ekledi.

Yıldırım da potansiyel klinik bağlantıları incelemekle ilgileniyor.

“Bu tersine öğrenme paradigması beni büyülüyor çünkü onu laboratuarımda nörolojik bozuklukların çeşitli klinik öncesi modelleriyle kullanmak istiyorum” dedi. “Bizim için bir sonraki adım, davranışsal stratejilerdeki bu farklılıkların altında yatan beyin mekanizmalarını ve bu stratejileri manipüle edip edemeyeceğimizi belirlemektir.”

Finansman: Araştırmanın finansmanı Ulusal Sağlık Enstitüleri, Ordu Araştırma Ofisi, Paul ve Lilah Newton Beyin Bilimi Araştırma Ödülü, Massachusetts Yaşam Bilimleri Girişimi, Picower Öğrenme ve Hafıza Enstitüsü ve JPB Vakfı’ndan geldi.

Bu öğrenme ve biliş araştırması haberi hakkında

Soyut

Tersine öğrenme sırasında kemirgen davranışının altında strateji karışımları yatmaktadır

Tersine öğrenme görevlerinde, veri analizini ve model uyumunu kolaylaştırmak için insanların ve hayvanların davranışlarının genellikle tek deneysel oturumlarda tekdüze olduğu varsayılır.

Ancak ajanların davranışları, farklı geçiş dinamikleriyle farklı deneme blokları yürüttükleri için tek deneysel oturumlarda önemli değişkenlik gösterebilir.

Burada, deterministik bir ters öğrenme görevinde farelerin, öğrenmenin uzman aşamalarında bile gürültülü ve optimalin altında seçim geçişleri sergilediğini gözlemledik. Davranıştaki optimumun altındaki iki kaynağı araştırdık.

İlk olarak, farelerin, seçim geçişlerinden sonra ödüllendirilmeyen yönlere döndüklerinden, görev yürütme sırasında yüksek bir hata oranı sergilediklerini bulduk. İkincisi, beklenmedik bir şekilde farelerin çoğunluğunun tek tip bir strateji uygulamadığını, bunun yerine farklı geçiş dinamiklerine sahip çeşitli davranış modları arasında karıştığını bulduk.

Bireysel deneme bloklarındaki dinamik seçim geçişlerinin karışımlarını ayrıştırmak için bu tür karışımların kullanımını bir durum-uzay modeli olan Blok Gizli Markov Modeli (blok HMM) ile ölçtük.

Ek olarak, kemirgen davranışındaki BlockHMM geçiş modlarının, görevi çözmek için kullanılabilecek modelsiz veya çıkarım tabanlı öğrenme olmak üzere iki farklı davranış algoritması türüyle açıklanabileceğini bulduk.

Bu yaklaşımları birleştirerek, farelerin görevde hem keşfedici, modelden bağımsız stratejilerin hem de deterministik, çıkarıma dayalı davranışların bir karışımını kullandıklarını ve genel gürültülü seçim dizilerini açıkladıklarını bulduk.

Birlikte, birleşik hesaplamalı yaklaşımımız, kemirgen ters öğrenme davranışındaki içsel gürültü kaynaklarını vurguluyor ve blok blok geçişlerin altında yatan gizli durumları ortaya çıkarırken, geleneksel tekniklere göre davranışın daha zengin bir tanımını sağlıyor.

Kaynak ve İleri Okuma: https://neurosciencenews.com/mouse-learning-cognition-23927/

İlgili Makaleler

Başa dön tuşu