Performance RNN’e benzer şekilde, doğrudan etkileyici performanslar üretmemize olanak tanıyan (yani önce bir puan oluşturmadan) olaya dayalı bir gösterim kullanırız. Önceki olayları sabit boyutlu gizli duruma sıkıştıran Performans RNN gibi LSTM tabanlı bir modelin aksine, burada önceki tüm olaylara doğrudan erişimi olan Transformer tabanlı bir model kullanıyoruz.
Daha Verimli Algoritma
Normal transformatörler, öz referansı yakalamanıza izin verirken, mutlak zamanlama sinyallerine dayanır ve bu nedenle göreli mesafelere, olay sıralarına ve periyodikliğe dayanan düzenliliği takip eder. Tüm bunlar üretkenliği etkiler, uzun sekanslar için aşırı bellek yoğunluğu oluşur ve bu transformatörden alacağımız verimliliği düşürür. Bunun yerine, bellek ayak izini önemli ölçüde azaltan ve dakikalar içinde müzik dizilerini ölçekleyen yeni algoritmamızı kullanıyoruz.
Öz Referansı Görselleştirme
Aşağıdaki örnekte, model ritmik olarak ilginç bir tremolo motifi (açılış görselleştirmesinde kırık çizgilerle daha yoğun bölümler olarak tanımlanabilir) tanıtır, daha sonra tekrarlar ve parçada birkaç kez (gri renkli bloklarla manuel olarak işaretlenir), gerginlik oluşturmak için hızlı ardıllık oluşturur. Öz referansı görmek için, son ağırlıkların son katmanını, geçmişte hangi notların geleceği bilgilendirdiğini gösteren yaylarla görselleştirdik. Modelin dikkatini çeşitli tremolo blokları arasında yoğunlaştırdığını ve daha az alakalı olan bölümleri dizelerden atlayabildiğini bu videodan görüyoruz: