JoVE Logo

Oturum Aç

Bu içeriği görüntülemek için JoVE aboneliği gereklidir. Oturum açın veya ücretsiz deneme sürümünü başlatın.

Bu Makalede

  • Özet
  • Özet
  • Giriş
  • Protokol
  • Sonuçlar
  • Tartışmalar
  • Açıklamalar
  • Teşekkürler
  • Malzemeler
  • Referanslar
  • Yeniden Basımlar ve İzinler

Özet

Burada, bir fare modelinde yırtıcı takip davranışını tespit etmek ve ölçmek için bir protokol sunuyoruz. Bu platform, farelerde yırtıcı takip davranışının dinamiklerini ve sinirsel mekanizmalarını incelemek için yeni bir araştırma paradigması sağlar ve takip davranışını incelemek için standart bir platform sağlar.

Özet

Yırtıcı takip davranışı, bir hayvanın avını yakalamadaki başarısı için kritik olan hareket, öğrenme ve karar verme gibi bir dizi önemli fizyolojik süreci içerir. Bununla birlikte, laboratuvarda, özellikle yaygın olarak kullanılan bir memeli modeli olan farelerde, yırtıcı takip davranışını incelemek için çok az yöntem ve sistem vardır. Bu araştırmayı sınırlayan ana faktörler, canlı avların (örneğin cırcır böcekleri) kontrol edilememesi ve deneysel standartların uyumlaştırılmasının zorluğudur. Bu çalışmanın amacı, robotik bir yem üzerindeki farelerde yırtıcı takip davranışlarını tespit etmek ve ölçmek için etkileşimli bir platform geliştirmekti. Platform, robotik yemin hareket modellerini programlamak için farenin ve robotik yemin göreceli konumlarını gerçek zamanlı olarak izlemek için bilgisayar görüşünü kullanır ve etkileşimli iki boyutlu kaydırıcılar, kapalı döngü bir sistem elde etmek için robotik yemin hareketini manyetik olarak kontrol eder. Robotik yem, gerçek zamanlı olarak yaklaşan aç farelerden kaçabilir ve kaçış hızı ve yönü, farklı bağlamlarda yırtıcı takip sürecini taklit edecek şekilde ayarlanabilir. Kısa bir denetimsiz eğitim döneminden sonra (iki haftadan az), fareler avlanma görevini nispeten yüksek bir verimlilikle (15 saniyeden az) gerçekleştirebildiler. Robotik yemin ve farelerin hızı ve yörüngeleri gibi kinematik parametreleri kaydederek, farklı koşullar altında takip sürecini ölçebildik. Sonuç olarak, bu yöntem yırtıcı davranışın incelenmesi için yeni bir paradigma sağlar ve yırtıcı peşinde koşma davranışının dinamiklerini ve sinirsel mekanizmalarını daha fazla araştırmak için kullanılabilir.

Giriş

Yırtıcı hayvanların av peşinde koşması, yalnızca hayatta kalma mücadelesinin canlı bir göstergesi değil, aynı zamanda doğadaki ekolojik dengeyi ve enerji akışını koruyarak türlerin evriminin önemli bir itici gücüdür 1,2. Yırtıcı hayvanlar için, av peşinde koşma faaliyeti, çeşitli fizyolojik süreçleri içeren karmaşık bir çabadır. Bu süreçler, avcıyı avlanmayaiten motivasyonel durumları 3, avını tespit etmesine ve izlemesine izin veren algısal yetenekleri 4,5,6, avın gidişatını belirleyen karar verme yeteneklerini7, fiziksel takibi sağlayan lokomotor işlevi 8,9 ve zaman içinde avlanma stratejilerini geliştiren öğrenme mekanizmalarını içerir 10, 11. Bu nedenle, yırtıcı arayış son yıllarda önemli ve karmaşık bir davranış modeli olarak çok dikkat çekmiştir.

Laboratuvarda yaygın olarak kullanılan bir memeli modeli olan farelerin hem doğal ortamlarında hem de laboratuvar çalışmalarında cırcır böceği avladıkları belgelenmiştir12. Bununla birlikte, yırtıcı av davranışını ölçmede canlı avın çeşitliliği ve kontrol edilemezliği, deneylerin tekrarlanabilirliğini ve farklı laboratuvarlar arasındaki karşılaştırmaların değişimini sınırlar13. İlk olarak, kriket türleri laboratuvarlar arasında farklı olabilir ve bu da av özelliklerinde takip davranışını etkileyebilecek farklılıklara neden olabilir. İkincisi, bireysel cırcır böcekleri, yırtıcı etkileşimlerin sonucunu etkileyebilecek benzersiz özelliklere sahiptir14. Örneğin, her kriketin kaçış hızı farklı olabilir ve bu da takip dinamiklerinde değişkenliğe yol açabilir. Ek olarak, bazı cırcır böceklerinin kısa bir uyarı mesafesi olabilir, bu da avcının peşine düşme fırsatı olmayabileceğinden, takip sürecinin olmamasına yol açabilir. Son olarak, bazı cırcır böcekleri stresli olduklarında savunmacı, agresif davranışlar sergileyebilir ve bu da deneysel verilerin yorumlanmasını zorlaştırır15. Avcı davranışındaki değişikliklerin avın savunma stratejilerinden mi kaynaklandığını yoksa avcının davranış kalıplarına mı özgü olduğunu belirlemek zordur. Av savunması ve avcı stratejileri arasındaki bu bulanık çizgi, avcı arayışı çalışmasına başka bir karmaşıklık katmanı ekler.

Bu sınırlamaları kabul eden araştırmacılar, deneysel koşulları kontrol etmenin ve standartlaştırmanın bir yolu olarak yapay avlara yöneldiler16,17. Fareler de dahil olmak üzere yedi kemirgen türünün, yapay avlara karşı önemli yırtıcı davranışlar sergilediği gösterilmiştir13. Bu nedenle, kontrol edilebilir bir robotik yem, yırtıcı takip davranışının incelenmesinde mümkün olabilir. Araştırmacılar, farklı yapay avlar tasarlayarak, canlı av18,19 ile mümkün olmayan deneysel koşullar üzerinde bir düzeyde kontrol uygulayabilirler. Ek olarak, az sayıda önceki çalışma, balıklarda okul davranışını ve avlanmayı incelemek için yapay olarak kontrol edilen robotik balıklar veya avlar kullanmıştır 15,17,19. Bu çalışmalar, deneysel araştırmalar için tutarlı, tekrarlanabilir ve manipüle edilebilir uyaranlar sağlamada robotik sistemlerin değerini vurgulamıştır, ancak bu ilerlemelere rağmen, özellikle farelerde kemirgen davranışı alanı, robotik yem kullanarak yırtıcı kovalama davranışını tespit etmek ve ölçmek için özel bir platformdan yoksundur.

Yukarıdaki nedenlere dayanarak, farelerde yırtıcı takip davranışını incelemek için açık kaynaklı gerçek zamanlı etkileşimli bir platform tasarladık. Platformdaki robotik yem, farelerden gerçek zamanlı olarak kaçabilir ve robotik yem son derece kontrol edilebilir, bu nedenle farklı avlanma senaryolarını simüle etmek için farklı kaçış yönleri veya hızları ayarlayabiliriz. Servo motorları sürmek ve robotik tuzağın hareketini kontrol etmek için bir STM32 mikrodenetleyici ile birleştirilen robotik avın hareket parametrelerini oluşturmak için bilgisayardaki bir Python programı kullanıldı. Modüler donanım sistemi, gerçek zamanlı olarak belirli laboratuvar ortamına uyarlanabilir ve yazılım sistemi, deneysel ihtiyaçlara göre araştırma amacına daha iyi hizmet etmek için sistemin zorluğunu ve göstergeleri ayarlayabilir. Hafif sistem, sistemin etkinliği için gerekli olan ve taşınabilirliğini artıran bilgisayar işlem süresinde önemli bir azalma sağlar. Platform aşağıdaki teknik özellikleri destekler: kolay tekrarlama ve modelleme için esnek ve kontrol edilebilir yapay av; doğal bir ortamda avlanma sürecinin maksimum simülasyonu; gerçek zamanlı etkileşim ve düşük sistem gecikmesi; donanım ve yazılımın ölçeklenebilirliğinin yanı sıra ölçeklenebilirlik; maliyet etkinliği ve kullanım kolaylığı. Bu platformu kullanarak, fareleri çeşitli koşullar altında yırtıcı görevleri yerine getirmeleri için başarıyla eğittik ve yırtıcı takip sırasında yörünge, hız ve göreceli mesafe gibi parametreleri ölçebildik. Platform, yırtıcı arayışın arkasındaki sinirsel mekanizmaları daha fazla araştırmak için bir yırtıcı takip paradigması oluşturmak için hızlı bir yöntem sağlar.

Protokol

Yetişkin C57BL / 6J fareleri (erkek, 6-8 haftalık) Ordu Tıp Üniversitesi Laboratuvar Hayvanları Merkezi tarafından sağlanmaktadır. Tüm deneysel prosedürler, kurumsal hayvan refahı yönergelerine uygun olarak gerçekleştirilir ve Ordu Tıp Üniversitesi Hayvan Bakım ve Kullanım Komitesi tarafından onaylanmıştır (No. AMUWEC20210251). Fareler, sıcaklık kontrollü koşullar altında (22-25 ° C), 12 saatlik ters aydınlık / karanlık döngüsü (ışıklar 20:00-8:00 açık) ve yiyecek ve suya ücretsiz erişim ile barındırılır.

1. Gerçek zamanlı etkileşimli platform için donanım hazırlığı

  1. Aşağıdaki arenada farenin ve robotik yemin konumlarını gerçek zamanlı olarak izlemek ve görüntüleri bilgisayara iletmek için tüm platformun üzerindeki bir çapraz çubuğa bir web kamerası monte edin (Şekil 1A).
  2. Altta kare bir akrilik panel ve bordür olarak akrilik bir tüpten oluşan büyük bir dairesel arena (800 mm çapında, 300 mm yüksekliğinde) tasarlayın. Görsel ipuçları olarak hizmet etmek için arenanın iç duvarlarına eşit aralıklı dört simge (kare, üçgen, daire ve haç) yerleştirin (Şekil 1B).
    NOT: Akrilik tüpün iç duvarı ve kare akrilik plakanın yüzeyi opak bir çıkartma ile kaplanmalıdır.
  3. Robotik yem olarak yiyecek peletleri (40 × 0,2 mg) içeren yuvarlak bir neodimyum mıknatıs (40 mm çapında, 10 mm yüksekliğinde, cırcır böcekleri yaklaşık 4,22-5 cm uzunluğundadır) kullanın. Tanımlama ve konum için mıknatısın yüzeyine mavi bir çıkartma yapıştırın.
  4. Arenanın altına iki boyutlu bir kaydırıcı (1000 mm'lik etkili bir hareket mesafesi ile) monte edin. Robotik yemi manyetik olarak ve uzaktan çekmek için çekme mıknatısı olarak taşıyıcısına başka bir neodimyum mıknatıs takın.
  5. Çektirme mıknatısını bir STM32 kartı ve bir anahtarlama devresi tarafından kontrol edilen servo motorlarla sürün. Bir servo motoru sürmek için hız-yön modunu kullanarak (16.000 darbede 75 mm), STM32 kartındaki çıkış portundaki PWM dalgasının frekansı hızı kodlar ve yüksek veya düşük seviyeler (3.3 V veya 0 V) ileri veya geri yönü kodlar (Şekil 1C).
    NOT: Anahtarlama devresi, yalnızca bir sürgünün hareketi ve diğer sürgünün aynı şekilde kontrolü için gerekli olan hız ve yön sinyali bağlantı şemasını gösteren Ek Şekil 1'de gösterilmiştir. İki kayar kontrol devresindeki topraklama kabloları birbirine bağlanabilir.

2. Gerçek zamanlı etkileşimli platform için yazılım tasarımı

  1. Farenin ve robotik yemin göreceli konumunu algılamak ve robotik yemin hareket sinyalini STM32 mikrodenetleyiciye iletmek için ana programı kullanın (Şekil 1D).
  2. Bilgisayar web kamerasından görüntü aldığında, kareleri Python ortamında işleyin.
  3. OpenCV20 modülünü (cv2.cvtColor) kullanarak RGB renk modelindeki her kareyi HSV renk modeline dönüştürün.
    NOT: Fareler gece toplayıcıları olduğundan ve tanımlamanın kararlılığı için, deneyler düşük ve sabit aydınlatma koşulları altında yapılmalı, arenada tutarlı aydınlatma koşulları sağlanmalı ve kısmi gölgelerden kaçınılmalıdır. Bu deneydeki aydınlatma yaklaşık 95 lux idi.
  4. Farenin ve robotik yemin sırasıyla HSV renk modelindeki renk aralıklarına göre maske görüntülerini alın (cv2.inRange).
  5. Farenin ve robotik yemin dış hatlarını daha net ve kararlı hale getirmek için maske görüntüsüne medyan filtreleme uygulayın (cv2.medianBlur).
  6. Kontur algılama işlevini (cv2.findContours) kullanarak farenin ve robotik yemin kontur bilgilerini alın ve ardından kontur alanını kaplayabilecek minimum bir dikdörtgen bulun. Bu dikdörtgenin merkez koordinatlarını sırasıyla farenin ve robotik yemin konumu olarak kullanın ve bunları TXT dosyaları olarak kaydedin.
  7. Farenin ve robot yeminin her karedeki konum bilgilerine bağlı olarak, farenin hızını ve robot yemine olan göreceli mesafeyi hesaplayın ve bu parametreleri TXT dosyaları olarak kaydedin.
    NOT: Görüntü işleme ile ilgili hesaplamaların zaman maliyeti göz önüne alındığında, komut dosyasının gerçek işlem hızı yaklaşık 41 fps'dir, bu da sistemin fare ve robotik yem hareketlerini yaklaşık 24 ms'de algılayabileceği anlamına gelir. Bir hareket komutunun gönderilmesi ile hareketin algılanması arasındaki sistem gecikmesi test edildi ± 59.4 ms (n = 8), bu nedenle fare hareketi ile fare tarafından tetiklenen av hareketi arasındaki gecikme yaklaşık 83 ms'dir (cırcır böceklerinin tepki süresi 250 ms'den azdır22).
  8. Fare ile robotik yem arasındaki göreceli mesafeye ve arenadaki ilgili konumlarına bağlı olarak, robotik yeminkaçış stratejisini belirleyin 21,22,23.
    NOT: Fare robotik yemden (>250 mm) nispeten uzaktaysa, robotik yemin güvenli bir bölgede olduğu varsayılır. Farenin robotik yemlere yeterince yakın olduğunu varsayalım (<80 mm, bu yöntemdeki bağıl mesafe farenin merkezine ve robotik yemine göre belirlendiğinden, bu eşik mesafesini farenin vücut uzunluğuna, yaklaşık 11 cm'ye ve yemin çapına göre ayarladık, 4 cm). Bu durumda, başarılı bir yakalama olarak kabul edilir ve robotik yem durarak farenin üzerindeki yiyecek peletlerini tüketmesine izin verir (Şekil 2A). Düz çizgi kaçış stratejisinde, yem arenanın orta alanındaysa (sınıra olan mesafe >75 mm), tüm kaçış yönlerinde yeterli alanı gösteriyorsa, farenin kendisine doğru hareket ettiği yönde hareket edecektir. Aksine, yem, çevredeki alanın gösterdiği gibi arena duvarına yakınsa (sınıra olan mesafe ≤75 mm), sürekli hareket için yetersiz alanı gösterirse, arena sınırına daha büyük bir mesafe ile yana 90°'lik bir dönüş yapacaktır (daha fazla kullanılabilir alan, Şekil 2B). Sıra tabanlı kaçış stratejisinde, robotik yem, 0,5 sn aralıklarla değerlendirildiğinde, kaçmak için daha fazla alana sahip olacak şekilde 90° yana dönecektir (Şekil 2C).
  9. Kaçış stratejisini belirledikten sonra, Python betiğinin hız ve yön sinyallerini ayrı ayrı kodlamasını ve bunları seri port (ser.port = 'COM3') üzerinden 115200 bit hızında STM32'ye göndermesini sağlayın.
    NOT: STM32'deki scriptler C ortamında derlenmiştir. Hız sinyali alındığında, kristal osilatör frekans bölücü ve çıkışı ile karşılık gelen frekansta bir PWM dalgasına dönüştürülür (STM32 kristal frekansı 72000000'dir). Yön sinyalini aldıktan sonra, çıkış portunun voltajı (0 veya 3,3 V) yukarı veya aşağı çekilerek dijital sinyal dönüştürülür.
  10. Derlenmiş bir C programını STM32'ye yazmak için seri bağlantı noktası yazıcısını kullanın.
  11. Robotik yemi arenanın merkezine taşımak için sıfırlama programını kullanın.
    NOT: Robotik yemin arenadaki konumu tespit edilerek, robotik yem sürekli olarak merkez konuma (5 cm/s) doğru sürülür ve merkez konumundan <20 mm'lik bir mesafe tespit edildiğinde arenanın merkezine ulaşmış ve hareket etmeyi durdurur. Ana programı çalıştırmadan önce sıfırlama programını çalıştırın.

3. Alışkanlık (Şekil 2D)

  1. Hayvanın vücut ağırlığını normalin% 90-95'ine düşürmek için fareyi 12 saat boyunca sabitleyin ve bu süre zarfında suya ücretsiz erişim sağlayın.
  2. İlk olarak, robotik yemi arenanın merkezine taşımak için sıfırlama programını çalıştırın ve ardından arenanın kenarındaki aç fareyi bir bölme ile izole edin.
  3. Ana programda dosyanın kaydetme yolunu ve robotik yemin hareket hızını (5 cm/s) ayarlayın. Ardından Çalıştır'a tıklayın ve açılır video penceresinde fare ve robot tuzaklarının kararlı bir şekilde tanınıp tanınmadığını gözlemleyin.
  4. Bölmeyi çıkarın ve farenin yırtıcı davranışını 20 dakika boyunca gözlemlemek için zamanlayıcıyı başlatın ve farenin robotik yemden ilk kez bir yiyecek peleti aldığı zamanı kaydedin. Fare bunu başaramazsa, yemi durdurun ve beslemek için farenin yanına yerleştirin.
  5. Fareyi kafesine geri koyun ve yiyecek ve suya ücretsiz erişim ile 24 saatlik bir iyileşme süresine izin verin. Sonra, alışkanlığı tekrarlayın. Aynı hayvan grubundaki iki ardışık deneme arasında ilk gıda alımına kadar geçen sürede önemli bir fark yoksa, alışkanlığın tamamlandığını düşünün. Bu süre tipik olarak 3-5 deneme alır.
  6. Her alışkanlıktan sonra, arenayı %75 alkol ve su ile düzgün bir şekilde temizleyin.

4. Avlanma görevi (Şekil 2D)

  1. Alışkanlıktan hemen sonra avlanma görevine başlayın.
  2. Hayvanın vücut ağırlığını normalin% 90-95'ine düşürmek için fareyi 12 saat boyunca sabitleyin ve bu süre zarfında suya ücretsiz erişim sağlayın.
  3. İlk olarak, robotik yemi arenanın merkezine taşımak için bir sıfırlama programı çalıştırın ve ardından arenanın kenarındaki aç fareyi bir bölme ile izole edin.
  4. Ana programda dosyanın kaydetme yolunu ve robotik yemin hareket hızını (0-60 cm/s, deneysel ihtiyaçlara göre farklı hızlar ayarlanabilir) ayarlayın. Ardından Çalıştır'a tıklayın ve açılır video penceresinde farenin ve robotik yemin kararlı bir şekilde algılanıp algılanmadığını gözlemleyin.
  5. Bölmeyi çıkarın ve farenin yırtıcı davranışını 60 saniye boyunca gözlemlemek için zamanlayıcıyı başlatın.
    1. Fare robotik yemi 60 saniye içinde başarılı bir şekilde yakalarsa, ana programı kapatın ve kafese geri gönderilmeden önce farenin tüm yiyecek peletlerini yemesine izin verin.
    2. Fare robotik yemi 60 saniye içinde yakalamazsa, fareyi herhangi bir ödül veya ceza olmadan doğrudan kafese geri bırakın.
  6. 4 saat sonra, 4.3-4.5 adımlarını tekrarlayarak ikinci bir avlanma görevi turu gerçekleştirin.
  7. Fareye yiyecek ve suya ücretsiz erişim ile 24 saatlik bir iyileşme süresi tanıyın. Ardından, avlanma görevini tekrarlayın. Farelerin% 80'inden fazlası art arda iki denemede 15 saniyeden daha az zaman harcarsa, fareler yetenekli avcılar olarak kabul edilir.
  8. Her avlanma görevinden sonra arenayı %75 alkol ve su ile düzgün bir şekilde temizleyin.

Sonuçlar

Bir avcıdan kaçmak için av genellikle kaçış hızlarını değiştirmek veya öngörülemeyen yönlere kaçmak gibi esnek ve değişken kaçış stratejileri kullanır 21,22,23. Bu çalışmada, robotik yemin hareket modeli, farklı koşullar altında avlanma görevini simüle etmek için sırasıyla robotik yemin kaçış yönünü ve hızını değiştirebilmemiz için hız ve yön olarak...

Tartışmalar

Bu protokolde, düşük sistem gecikmesi ile gerçek zamanlı kontrol elde etmek için, hafif ve verimli bir bilgisayarla görme kitaplığı olan OpnenCV'yi ve farelerin ve robot tuzağının konumlarını belirlemek için bir renk modeli kullanıyoruz. Bu, arenadaki aydınlatmanın nispeten sabit olmasını ve siyah farelerin algılanmasına müdahale etmemek için arenadaki gölgelerden mümkün olduğunca kaçınılmasını gerektirir. Nispeten kararlı kontur tespiti elde etmek içi...

Açıklamalar

Yazarların ifşa edecek hiçbir şeyi yok.

Teşekkürler

Bu çalışma, Çin Ulusal Doğa Bilimleri Vakfı tarafından YZ'ye desteklenmektedir (32171001, 32371050).

Malzemeler

NameCompanyCatalog NumberComments
Acrylic cylinderSENTAIPMMADiameter 800 mm
Height 300 mm
Thickness 8 mm
Anti-vibration tableVEOOCustom madeLength 1500 mm
Width 1500 mm
Height 750 mm
CameraJIERUIWEITONGHF868SSPixel Size 3 µm ´ 3 µm
480P: 120 fps
Camera support frameRUITUCustom madeMaximum width 3300 mm
Maximum height 2600 mm
Circuit boardWXRKDZCustom madeLength 60 mm
Width 40 mm
Hole spacing 2.54 mm
ComputerDELLPrecision 5820 TowerInter(R) Xeon(R) W-2155 CPU
NVIDIA GeForce RTX 2080Ti
DuPont LineTELESKYCustom made30 cm
Food pelletsBio-serveF0759520 mg
Platform support frameHENGDONGOB3030Length 1600 mm
Height 900 mm
Width 800 mm
Regulated power supplyZHAOXINPS-3005DOutput voltage: 0-30 V
Output current:0-3 A
Round magnetic blockYPEYPE-230213-5Diameter 40 mm
Thickness 10 mm
Servo Motor DriverFEREMEFCS860P0.1 kw-5.5 kw
SVPWM
220 VAC+10%
~-15%
RS-485
Slide railJUXIANGJX45Length 1000 mm
Width 1000 mm
Square acrylic plateSENTAIPMMALength 800 mm
Width 800 mm
Thickness 10 mm
Square Magnetic BlockRUITONGN35Length 100 mm
Width 50 mm
Thickness 20 mm
Stm32ZHENGDIANYUANZIF103STM32F103ZET6
72 MHz clock
TransistorSemtechC1185362N2222A, NPN

Referanslar

  1. Gregr, E. J., et al. Cascading social-ecological costs and benefits triggered by a recovering keystone predator. Science. 368 (6496), 1243-1247 (2020).
  2. Brown, J. S., Vincent, T. L. Organization of predator-prey communities as an evolutionary game. Evolution. 46 (5), 1269-1283 (1992).
  3. Zhao, Z. -. D., et al. Zona incerta gabaergic neurons integrate prey-related sensory signals and induce an appetitive drive to promote hunting. Nat Neurosci. 22 (6), 921-932 (2019).
  4. Hoy, J. L., Yavorska, I., Wehr, M., Niell, C. M. Vision drives accurate approach behavior during prey capture in laboratory mice. Curr Biol. 26 (22), 3046-3052 (2016).
  5. Holmgren, C. D., et al. Visual pursuit behavior in mice maintains the pursued prey on the retinal region with least optic flow. eLife. 10, e70838 (2021).
  6. Johnson, K. P., et al. Cell-type-specific binocular vision guides predation in mice. Neuron. 109 (9), 1527-1539.e4 (2021).
  7. Nahin, P. J. . Chases and Escapes: The Mathematics of Pursuit and Evasion. , (2007).
  8. Mcghee, K. E., Pintor, L. M., Bell, A. M. Reciprocal behavioral plasticity and behavioral types during predator-prey interactions. Am Nat. 182 (6), 704-717 (2013).
  9. Belyaev, R. I., et al. scavenging: Functional analysis of vertebral mobility and backbone properties in carnivorans. J Anat. 244 (2), 205-231 (2024).
  10. Weihs, D., Webb, P. W. Optimal avoidance and evasion tactics in predator-prey interactions. J Theor Biol. 106 (2), 189-206 (1984).
  11. Peterson, A. N., Soto, A. P., Mchenry, M. J. Pursuit and evasion strategies in the predator-prey interactions of fishes. Integr Comp Biol. 61 (2), 668-680 (2021).
  12. Galvin, L., Mirza Agha, B., Saleh, M., Mohajerani, M. H., Whishaw, I. Q. Learning to cricket hunt by the laboratory mouse (mus musculus): Skilled movements of the hands and mouth in cricket capture and consumption. Behav Brain Res. 412, 113404 (2021).
  13. Timberlake, W., Washburne, D. L. Feeding ecology and laboratory predatory behavior toward live and artificial moving prey in seven rodent species. Anim Learn Behav. 17 (1), 2-11 (1989).
  14. Sunami, N., et al. Automated escape system: Identifying prey's kinematic and behavioral features critical for predator evasion. J Exp Biol. 227 (10), jeb246772 (2024).
  15. Szopa-Comley, A. W., Ioannou, C. C. Responsive robotic prey reveal how predators adapt to predictability in escape tactics. Proc Natl Acad Sci U S A. 119 (23), e2117858119 (2022).
  16. Krause, J., Winfield, A. F. T., Deneubourg, J. -. L. Interactive robots in experimental biology. Trends Ecol Evol. 26 (7), 369-375 (2011).
  17. Swain, D. T., Couzin, I. D., Leonard, N. E. Real-time feedback-controlled robotic fish for behavioral experiments with fish schools. Proceedings of the IEEE. 100 (1), 150-163 (2012).
  18. Eyal, R., Shein-Idelson, M. Preytouch: An automated system for prey capture experiments using a touch screen. bioRxiv. , (2024).
  19. Ioannou, C. C., Rocque, F., Herbert-Read, J. E., Duffield, C., Firth, J. A. Predators attacking virtual prey reveal the costs and benefits of leadership. Proc Natl Acad Sci U S A. 116 (18), 8925-8930 (2019).
  20. Farhan, A., et al. An OpenCV-based approach for automated cardiac rhythm measurement in zebrafish from video datasets. Biomolecules. 11 (10), 1476 (2021).
  21. Hein, A. M., et al. An algorithmic approach to natural behavior. Curr Biol. 30 (11), R663-R675 (2020).
  22. Kiuchi, K., Shidara, H., Iwatani, Y., Ogawa, H. Motor state changes escape behavior of crickets. iScience. 26 (8), 107345 (2023).
  23. Wilson-Aggarwal, J. K., Troscianko, J. T., Stevens, M., Spottiswoode, C. N. Escape distance in ground-nesting birds differs with individual level of camouflage. Am Nat. 188 (2), 231-239 (2016).
  24. Mathis, A., et al. Deeplabcut: Markerless pose estimation of user-defined body parts with deep learning. Nat Neurosci. 21 (9), 1281-1289 (2018).
  25. Kane, G. A., Lopes, G., Saunders, J. L., Mathis, A., Mathis, M. W. Real-time, low-latency closed-loop feedback using markerless posture tracking. eLife. 9, e61909 (2020).

Yeniden Basımlar ve İzinler

Bu JoVE makalesinin metnini veya resimlerini yeniden kullanma izni talebi

Izin talebi

Daha Fazla Makale Keşfet

JoVE de Bu AySay 219takipinteraktif platformrobotik yemfarelerbilgisayarla g rmekapal d ng sistem

This article has been published

Video Coming Soon

JoVE Logo

Gizlilik

Kullanım Şartları

İlkeler

Araştırma

Eğitim

JoVE Hakkında

Telif Hakkı © 2020 MyJove Corporation. Tüm hakları saklıdır