読みモジュールと発話モジュール

本を読みながら、かけてる音楽を同時に口ずさむことがある。このとき、私の場合、読んでる言語が日本語/英語、かけてる音楽が日本語/英語/器楽とほぼ場合わけできて、6通りになる。
さて、例えば、{読む:日本語、音楽:日本語}の場合よりも{読む:日本語、音楽:英語}の場合の方が読んだ内容をよりよく読解できていたとしたら、読む作業と発話作業はどうしようもなくからまっているのだ、とか何とか言えないだろうか?
というよりも、聴覚情報処理と視覚情報処理の問題なんだろうか。
一曲の間にどれだけ読み進められるか、でいいかげんにテストしてみたが、よく分からなかった。かける曲を違えつつも、言語以外の条件を同じにするのが難しい。