飛澤正人さんに弟子入り!?そこで学んだミキシングについての方向性など

先日、サウンドクリエイターに関する様々な内容を温かく包み込むようにブログの記事にされている、音楽クリエイターのUGさんという方のブログを見ていたらこんな記事がありました。↓

トップエンジニア飛澤正人に弟子入りして盗んだミックステクニック3つ

 

 

!?

 

・・・おお、凄い。

飛澤さんといえば藤本健さんのDTMステーションでもお馴染みの凄いエンジニアの人。これは早速勉強させてもらうしかない。

 


・・・と思い記事を読み進めていくと、このような記事を発見。

なるほど、こういった企画があったとは知りませんでした。UGさんは早速飛澤さんに“弟子入り”した成果をブログの記事にされていてその効果はかなり劇的なものだったため、私も早速“弟子入り”することにしました。

ブログを通じてこうして色々な情報を共有出来るというのはありがたいことですね。UGさんの記事を見てなかったら私は知らないままだったか、知ってもずっと後だったかもしれない。

 

飛澤正人さんの実践講座はロックドラムのミキシングについて

飛澤さんの講座内容は、具体的にはMedia Integrationさんの「WAVESプラグインによるロックドラムのミキシング実践内容」というものでした。

Media Integrationさんのこの企画の意図は、

飛澤氏に「弟子入り」するような気持ちで、氏のテクニック、ロジックを学びましょう。

とあり、また動画の内容もカットは極力せずに、プロのエンジニアの実際に行う作業を“盗み、感じて”もらい、多くの人に「自身の音楽活動に役立てて頂きたい」という心意気を私は感じました。

というわけで、ご厚意に預かりしっかり学ばせて頂こうと思いますが、私は現在WAVESのプラグインを所持していません。なので、WAVESのプラグインは使わずに動画でのミキシングの手法やノウハウを自分の環境に落とし込んでドラムの音作りをしてみたいと思います。

 

WAVESプラグインを使わず「METAL MACHINERY SDX」で音作り実践

さて、飛澤さんは主に

  • Superior Drummer 3.0
  • WAVESプラグイン色々

を使用されてロックドラムのミキシング講座をされていました。

対して現在の私の状況はというと、

  • Superior Drummer 2.0
  • WAVESプラグインは現在持ってない

という状態なので、音やプラグインの数値や掛かり方をそのまま真似ることは出来ません。ですので具体的な数値ももちろん把握はしておきますが、主に「なぜそうしているか、なぜそうなっているか」を解説を通して理解し、自身の応用力と根本的な知識の底上げに繋がるよう自分の環境に置き換えていきます。

 

まずドラムではこのようなサンプルを作りました。そしてSuperior Drummer2.0ではなく、私がよく使うその拡張音源である「METAL MACHINERY SDX」を使い、違う方向性で作られたドラム音源でも効果を出せるかを試してみます。

以下はそのデフォルトキットで鳴らした音です。

個人的には少しくぐもったような感じの音がします。

このドラムは、以前私がメタル系楽曲を作るために買ったSuperior Drummer系の拡張音源です。バトルモノの楽曲を作るならギターでザクザクさせつつドラムもそうした方がかっこいいだろうということで、今の私のロック系楽曲のデフォルトドラム。

去年Superior Drummer3.0が出たのでそっちもちょっと欲しかったりするのですが、今はもうしばらくMETAL MACHINERYで楽しみます。

 

そしてこちらが動画を参考にしながらミキシングしたものです。

400~600Hzを全体的に削る形となっているので随分と抜けが良くなりました。しかし正直こんなに変化させられるとは思っていなかったという(笑

 

・・・実は最近、ドラムについてなんとなくこうした方がいいんだろうけど、どこに決め手を置けばいいかわからないというお悩み状態だったのですが、その悩みがここで一つバシッとクリアになったような気がしました。

 

以下、この動画で学んだ、自分の中で押えておきたいポイントを抽象的な内容になりますが箇条書きしていきます。

  • 楽器ごとのミキシングの方向性
  • 各音の美味しいところ・聞かせたいところの把握
  • プラグインの使い方・使う理由

私の詳しい編集内容については大体飛澤さんの動画の通りに手持ちの近しいプラグインで代用しただけで、またUGさんの記事を見て頂きたいので省きます。

 

楽器ごとのミキシングの方向性

動画を見て学んだ一つに、各音をどのようにバランス調整するかという考え方でした。

例えば、まずドラム内でキック・スネア・タム・金物それぞれが被って良い部分・被ってはダメな部分を調整してEQやCompを掛けていく。そしてそのドラム全体はベースやギター、ピアノなど他の楽器が入ってくることを想定の上で、ある程度整えられている。

キックとベースはロック系では基本一番下の低音なので、まずそこをしっかり作り、あとに続く楽器が上に乗っかっていくイメージですね。そういう風に、音の役割と特徴が見事なまでに綺麗に知識として整理されている感じがしました。

 

確か10年くらい前なのですが、以前私はドラムだけでがっつり良い音が出るようにミキシングしてみようと思い、それが完成した時に一人で大興奮したことがありました。

「やったぜ・・・時間かけた甲斐があった。現時点で最強のドラムだぜ!!」

と。

 

こんな顔してました確実に。

 

しかし次の日、さあこの最高のドラムを使って一段レベルアップした楽曲を作ろうと思い、いざピアノやベースを入れてみると音同士が重なりすぎてボワボワになってしまい、もう聞いていられない状態になりました。ドラムだけでほぼ音の帯域全部を占めてしまっていたんですね。

いや~、折角作ったのにとえらい凹んだのを覚えています。

 

 

 

心の中でこんな顔してました間違いなく。

 

誰しもこういう経験はあるかと思いますが(笑)、ミキシング作業が、すでに他の楽器があることを想定の上で行われているというのは、当り前のことかもしれないけど非常に大事なことだと改めて気付かされました。

それには、音をどこに配置するかとか、この楽器の音はどういう音でどんな役割を持っているかを決めたり把握しておく必要がありますよね。一個ずつ着実に理解して、すぐに引き出しから出せるように日頃から意識しておきたい部分です。

 

各音の美味しいところ・聞かせたいところの把握

動画のトピックでは大別して、

  • キック
  • スネア
  • 金物
  • ドラム全体

という風に分けられていて、更にキックなら

  • Kick In
  • Kick Out
  • Kick Sub

の3つにマイクで取られた音として分けられ、それぞれどのような特徴があってそれを活かすかを飛澤さんは丁寧に解説されていました。正直、目から鱗な部分が多々ありました。

キックであっても、いらないなと思われる低域をサクッと削ったり、特にスネアの中低域も他の楽器との兼ね合いでバッサリいってしまう。私はこれまでスネアの中低域の音にかっこよさを感じてなかなか削れなかった人間なのですが、飛澤さんのスネアの音を聞くと最終的に自分が求めているスネアの音に非常に近かったんですよね。

 

スネアに関しては色々本を読んで試してみても上手くハマる時とハマらない時があって、いつも一番時間を掛けていた部分なだけに、今回の動画でそれがストンとハマった気がしました。まるで綺麗なスネアの音のように(あまり上手いこと言えてない

 

プラグインの使い方・使う理由

動画では、プラグインをどういう理由で使っているかも解説されていました。なので、その方向性を自分の環境に置き換えて、自分の手持ちではどういうプラグインを使って、どのような数値にすれば目的の音が出るか、目指す効果が得られるかを改めて考えさせられました。

自分の中で不明瞭だったものがほんとに沢山吹き飛んでいった感じですね。こういう風にやっていけばいいんだ、と。

 

それと最近忘れてしまいがちだった内容に、

  • プラグインを掛ける時はバイパス(掛ける前)との比較をする
  • プラグイン後と前の音量差を付けない
    → 大きな音になるとそれだけで良くなったような錯覚をしてしまいがちなため
  • つまみなどの数値を一度振り切らせてみて特性を確認する
  • 同じ系統のプラグインでも掛かり方や音の出力などの個性が違う

などの基本的なものが沢山ありました。ついつい端折ってしまう部分も多かったので、忘れないよう改めてここに書いておきます。

 

また、アタック感を出すにしても、コンプを使うのかトランジェント系を使うのかなどで効果も変わってくる。動画ではその辺りも順序立てて一個ずつ解説されているのでとてもわかりやすかったです。

 

おわりに

Media Integrationブログ記事のスタッフHさんやUGさんもおっしゃっていますが、それが行われる意味を理解する自身で感じることがとても大切だと改めて思いました。

 

自分が昔、WAVESのお試し用プラグインでプロのやり方を学べるという教本をそのまま数値だけ当てはめて真似て、結局当時はその意味をあまり理解できていなかったことを思い出しました。だからこそ、本当に理解が深まった時とそうでない時の違いがよくわかるというのはあるのですが。

 

ちなみにそのWAVEで思い出した教材というのがこちら。WAVES全盛期だった頃(確か)、というのもありますが、プロのミキシング・マスタリングのノウハウがプラグインを使用しながら書かれているというもので、

  1. ダンスミュージック
  2. R&Bミュージック
  3. カントリー・ロックミュージック
  4. ロック・パンクミュージック
  5. アーバンリミックス
  6. CDマスタリング

の全6章からなっていて、同封のWAVEプラグインは試用版ですがサンプル音源のプロジェクトファイルも見れるというなかなか稀有な教本です。10年以上前に買ったので現在とは流行りなどは違うでしょうが、根元のノウハウは多分ほぼ変わっていない気がする。

棚から引っ張り出してきて今一度勉強しよう。

 

というわけで、WAVESプラグインを持っていない私でも十分すぎるくらいの効果が確認できましたので、飛澤さんの講座、ミキシングに不安のある方は是非一度“弟子入り”されると良いのではないかと思います。

むしろ是非見て頂きたい。ほんと凄いので。

 

そして一度弟子入りが終わった後、

喜びでこういう顔になっていることを祈ります!!

 

(私の失敗という意味じゃない

 

 

Media Integrationでの記事一覧は → こちら

DTMをされている方にオススメのUGさんのサイトは → こちら

 

【Cubase】ミックスダウン後の楽曲末尾の「プチッ」を無くすためのもはや最終手段

オーディオストックDOVA-SYNDROME等の楽曲投稿サイト用にループ楽曲を作るとき、楽曲を書き出した際、「プチッ」というノイズが乗ることが私の場合頻繁にあります。

今回は、ループ楽曲として体裁をギリギリ保ちつつ、色々対処してもノイズが乗ってしまう場合の現在の私が最後にとる手段を記事にしてみます。使用DAWは「Cubase」

 

※ 以下、自分の環境の上での結果を元に書いているので、あくまで参考程度に目を通して頂ければと思います

 

ループ音楽素材とは

ループ楽曲素材というのは、音楽プレイヤーなどでその一曲を繰り返し再生させ続ければ延々繋がって聞こえるようなものの事をいいます。

例えばゲームなどで戦闘中に放置してたりすると、ずーっと同じバトル曲が流れ続けますよね。市販のゲームでは内部で再生箇所を指定しているものがほとんどだと思いますが、ああいう風にループされる使われ方が前提のBGMということです。

 

私が作るループ楽曲素材は上画像の通り。「曲の終わりからそのまま頭に戻ればループされてるように聞こえるよ」という、なるべく手軽に使ってもらえる形を取っています。

というか、ほとんどのループ楽曲素材屋さんはそういう形をとっているケースが多いかも。

 

そしてこのサンプルはそういったループ楽曲を作る際に毎度気を遣う部分です。

非常にわかりやすい「ブチッ」という音が曲末尾に出てしまいました。ナンテコッタイ

 

これはCubaseのオーディオミックスダウン時に発生したノイズ音で、もちろんこんな「ブツッ」なんて意図しているわけもなく、オーディオストックやDOVAの査定で落とされる理由の大半でもあるかと思われます。普段ループ素材を作らない知り合いの音屋はこの手のノイズに皆ひっかかっていたのだからバカにできない(笑

それにミキシングとは基本関係ないところでDAWが発生させてしまうノイズだから、除去ソフトであるiZotopeのRXでもどうにも出来んだろうしなぁ。

 

書き出し後に楽曲末尾に「プチッという」ノイズが鳴る原因

色々調べてみたのですが、今回の原因に考えられそうな内容を絞り込んでみると、

  • 音がある程度鳴っている状態のまま録音が切り上げられている
  • DAW内の設定・構造の問題
  • DAWを動かしているマシンのスペック不足

の3点が結果的に考えられました。

意図しないノイズの種類には他にも、

  • 音が重なり合ってピークを超えるクリップノイズ的なもの
  • 録音時の電気的な干渉によるクリックノイズ的なもの

など色々ありますが、今回は最初に上げた3点に絞って見ていきます。

 

音がある程度鳴っている状態のまま録音が切り上げられている

これは若干クリップノイズ的な要素もあるのではないかと思われるのですが、インストール直後はともかくそれから数年経った私のCubaseでは、ほんのちょっとミックスダウン範囲外にオーディオイベントがはみだしている、つまり「限りなく無音に近い小さな音」が曲終わりに出力されているだけでノイズの原因になったりしているケースが幾つかありました。

上画像のレベルであれば普段は大丈夫なことが多いのですが、それでもたまにあります。

 

よくある書き出し時の発生プチノイズは、単純に音が鳴り続けている途中にミックスダウンの末尾範囲を指定してそのまま書き出すといったケース。

他のDAWやver違いのCubaseなど、別の環境ではどうなのかはわかりませんが、私の環境でこれをやるとプチノイズがほぼ確実に曲末尾に乗ってしまいます。DAWの設計上この使い方も想定内ではあろうと思われるのですが、意図しないノイズの類は音に関わる人にとって切っても切れない関係なのかもしれません。

 

DAW内の設定・構造の問題

気付かない間に何かしらの設定をONにしてしまっているケースも稀に起こります。その場合、気付かずにONにしてしまっているので、それをOFFにするためにあれこれ調べて普段は使わない機能を恐る恐る弄ることになったりします。案外デリケートなところありますからね。

また、CubaseではCPU負荷からくるのか、それとも長年使っていて何かしらのエラーが内部で積もっているのか(これが濃厚と予想)、0.001秒以下の決定にかなりの緩みを感じます。

 

こちらは画像の上トラックのオーディオを、範囲そのまま単純にコピーするようにミックスダウンしたものが下トラックなのですが、その尺の長さが書き出し元と後でなぜか違うという。プロジェクト内は32bitで編集していてミックスダウン書き出し時が16bitだから長さが違うのかとか、この差がなぜ生まれるのかも正直よくわかりません。あったりなかったりする。

 

ちなみにこの差は0.08[sec]。

これは別プロジェクトでの、いわゆるプラグインエフェクトなどの負荷は一切かかっていない状態で実験しても同じで、また更に実時間で書き出しをしても同様の結果という、私にとって完全に意味が不明の現象。くそ・・・困った時の頼りになるSleepfreaksさんの記事(楽曲を書き出すときの不具合 Cubase)を試しても上手くいかんとは・・・!!

 

Cubaseは現在ver8.5を使っていますが、プロジェクト内を最大限まで拡大した0.001sec以下ではスナップをONにしても機能しなかったりするので、若干DAW内の構造上の問題もあるような気もしました。あくまで予想です。

 

DAWを動かしているマシンのスペック不足

CPU負荷以前に、マシン自体がCubase8.5を動かすことがきついのだろうか。しかし現在の私のPCは、

  • Core i5 3.2GHz
  • メモリ 32GB

を積んでいるので、単純にDAWだけを立ち上げるだけで挙動がおかしくなるとは考えにくい。

ただ、このPCを作ってからもう4~5年くらいは経ち、色々なソフトウェアやDTM音源も色々インストールしていたり、CubaseがインストールされているドライブもSSDではなくHDDだったりするので、色んな要素が少しずつ積もり積もってDAWに影響を与えているような気がしなくもないという。

OSも100%健全かどうかというのも若干怪しいし、ウイルス常駐ソフトのこともあるので、結果的にスペックが発揮されていない、のかもしれない。

 

私の取る最終手段

ループ楽曲を作る上では、楽曲の終わりに下手に残響があったりすると曲の頭に戻った時に若干違和感が出てしまったりもするので、この頭と終わりを自然に繋げるような工夫が色々必要になってきます。静かな展開にしたり、余白を作ったりなどで、私も含め素材を作られている方は皆それぞれ工夫されています

ですが、最後の最後まで音が出ていたほうがループするのに自然だとはやはり思います。なので、工夫をする前提として自分の環境でどこまで音を出せてどこから音を控えた方が良いのかの境界線を知ることはとても大事であろうと。

 

 

以上の流れから、私が最終手段としてとる方法は実に簡単。

 

「ノイズが乗らなくなるまで楽曲のケツを削る」

 

ループしてもギリギリ違和感ない状態まで、もう楽曲自体を削ってしまうしかない。事前に静かに終わって頭に戻る楽曲ならこの手段はほぼ取りませんし、そもそも作編曲の段階から自然なループを狙う作りにしておくことが一番望ましいので、私の最終手段はほんとに後ろがない状態といえます。

もしこれでループに違和感が出るようであれば、曲のケツは削るのではなく作り直したほうがいいと個人的には思っているのでそうしています。

 

私の最終手段の例を書いてみます。上画像で使用している楽曲の末尾は1:40:909。1分40秒と+0.909秒。

この曲では、以前の記事で書いた「曲終わりに0.001秒分のフェードアウトをかける」では全くノイズが消えず、結果的にノイズがギリギリ書き出し時に乗らない状態までもっていくのにかなり削る結果となりました。

 

削った時の尺は1:40:810。つまり0.1秒も削ることになってしまった。

 

以前の記事では「0.001秒のフェードアウトをかければミックスダウン後の末尾ノイズは消える」と書きましたが、実際その時の私の環境ではそうだったというだけなのかもしれません。

100倍も違うとかもうやばいなぁ・・・と最初は思ったのですが、

0.1秒開いた状態のループ終わりからループ頭の繋ぎの部分(00:03付近)がこちら。

 

確かに一瞬間があるなとはわかるのですが、実際動画などでループとして使われる使用感を考えると、このくらいだと案外わからない間でもあったりもします。ただこの曲だと最後に静か目にしようとしてはいますが残響が割とあるのでやはり目立つ方ではある。

ですが、現在の自分の中ではこれがギリギリの境界線ということで記事にしてみました。

 

・・・残響がなくなるまで尺を少しとってもイイといえばイイんですけどね。正直幾らでも可変はききますが、ノイズと楽曲の境界線としての記事なので、こういう手段も取りますという感じで見て頂ければ。

 

おわりに

今回の記事内容はあくまで自分の環境でのケースなため、例えば「0.1秒まで削ればいい!」といった絶対的なものは述べられません。

Cubaseの挙動に関しても人それぞれなので、動作云々も一概にはいえない。いえないけど、「こういうことはありました」という一例としての価値はなくはないかと思ったので、書いてみました。

 

ちなみに後で気づいて書くタイミングが見当たらなかった為ここに書きますが、記事で主にオーディオデータを扱っているのは、私のループ楽曲を作る手順が、

  1. 打ち込んだ内容を一個のオーディオデータにして書き出す
    → その際+1小節分加えてミックスダウン
    → プロジェクト内にミックスダウンしたオーディオデータを残す
  2. そのオーディオデータを元に、改めてループ楽曲素材として書き出す
    → ここでループに違和感の出ないよう曲末尾を調整

という流れを踏んでいるからです。最初に+1小節加えた理由は、稀にミックスダウン指定範囲より短めにオーディオが出力されてしまうことがあるため、それを防ぐ為にこんな手順を組んでいます。

・・・あーでもこれは別の記事で簡単にまとめてもいいかもしれないですね。そうですね、そうします。

 

 

 

それでは、今回はこんなところで!

 

【Mixing・Lv1】ミキシングで何から始めればいいかわからない時のポイント

こんにちは、MAKOOTOです。

今日はミキシングの概要を書いていきたいと思います。

 

 

私が作曲を始めたばかりの頃は、

当然ながらまだこの言葉を知りませんでした。

 

「MIDI」と呼ばれる、簡単に言えば音を出すための設計図に色々書き込んで、

それを単純にPC内蔵のボードで鳴らして遊んでいたんです。

 

しばらくして、実際にオーディオデータを扱う「DAW」と呼ばれる作曲ソフトに移行し、

本格的に楽曲を作っていく過程で、ミキシングとか、そういう言葉を知りました。

 

(「MIDI」や「DAW」、そして今当り前に書いている「DTM」という単語も、

一個一個記事にしていく予定なのでここでは割愛します。)

 

それではミキシングとはそもそも何なのかをまずは見ていきましょう。

 

 

ミキシングとは

 

安定のウィキペディア引用どーん!!

ミキシング (Mixing) とは、多チャンネルの音源をもとに、ミキシング・コンソールを用いて音声トラックのバランス、音色、定位(モノラルの場合を除く)などをつくりだす作業である。元のチャンネル数から少ないトラックに移行させるため、同義語としてトラック・ダウンとも呼ばれる。

出典:Wikipedia、ミキシングページより

つまり、一曲内の音のバランスを取る。一言で言えばこうなります。

 

これは楽曲を作っていることが前提で、最初は色んな楽器や音色がたくさんある状態。

音がミックスされた状態ですね。

そしてそのバランスが取り終わって、上手にできましたー!完成しましたー!という時に、

一つのオーディオデータとして書き出す。これを「ミックス・ダウン」といいます。

 

ミキシング概要

 

ダウンという言葉が使われているのは、

「下がる」という意味もありますが、「終わる」という意味もあります。

スポーツでも「選手がアップを始める」と耳にするかと思いますが、

あれはこれから始める準備をしているわけです。アップ・ダウンにはそういう意味もある。

 

 

そして、引用の「トラックダウン」

トラックとは「通り道」という意味があり、音のデータ管理を行っている一つの単位です。

基本的には、1トラック1音色を割り当てて音を出します。

ピアノトラック

ただ、トラックに関しては色々な使い方があって、例えば上の図のように、

「Track1=ピアノ右手」、「Track2=ピアノ左手」

という風に、一つの楽器でも奏法ごとに分けたり、またリバーブ成分だけを担うトラックを作ったりと

この辺りは作り手が自分のわかりやすいよう、ある程度自由に使い方を決められます。

 

多い場合には、一曲辺りに100トラック超えも当り前で、それらが最終的に一つのデータにまとめられる。

上の例で言うなら、トラック数も100→1になって、同時に工程も終わる。

 

まさに「ミックスダウン」、「トラックダウン」というわけです。

 

 

 

ミキシングの主な要素

 

さて、音のバランスを取るということなのですが、具体的に何を弄ればよいのかを大別すると、

  • 音量
  • 定位
  • 音色
  • 空間
  • タイミング

の5つ。

Wikiとはちょっと違うのですが、私はこの5つで見ています。

 

 

音量

音の大きさ。各楽器の大小の調整や、一つの楽器での大小(ダイナミクス)調整など。

一番バランスを取る必要のあるパラメータです。

 

定位

音の位置のこと。現在、ステレオ2MIXで曲を作ることがほぼ基本なので、

左右の位置バランスを取ることになります。

モノラルの場合、定位は一つで固定なので考える必要はありません。

 

音色

音が持つ周波数特性を調整することで音の色に変化が出ます。

高域を上げると明るめでキンキンし、低域を上げるともっさりするなどの特徴があります。

 

空間

残響を作り出すことで、奥行きが生まれます。2次元が3次元になる。そういった空間の調整。

残念ながら4次元の作り方は私にはわかりません。(笑

 

タイミング

時間軸調整です。発声タイミングを整えることでリズムを作ったり、音の重なりを回避したりします。

 

 

 

要は、自分が音を使ってどういう演出をしたいかを調整する作業がミキシングです。

例えるなら自分が、指揮者とか、監督とか、エグゼクティブプロデューサーなど、

楽曲に対して自分が全てを取り仕切る役、つまりリーダーであるということ。

こういう風に考えていただけるとわかりやすいのではないかなと思います。

 

 

ミキシング工程の曖昧さ

 

ミキシングといっても、その工程はジャンルや作り手のスタイルによって本当に様々です。

 

一人で全部作るのか、複数で作るのか、バンド形式に曲を作っているのか、など

これだけでももう作業工程が全然違います。

 

例えば、

昔からPCで曲を作っている人で、曲の設計図だけ慣れている専用のMIDIソフトで描いて、

それをオーディオで鳴らすためにPro ToolsなどのDAWソフトに持っていって音を当てて、

それからミキシングをする、作曲とミキシングがほぼ別のケース。

 

クラブ系の曲で、もう初めからオーディオデータを扱ってしまって、

それにエフェクトを掛けたまま音を置いていって、

作曲とミキシングを同時に済ませてしまうケース。

 

 

前者に近い場合、最初にコードとメロディだけ紙面にかいて、

それをスタジオなどで叩いて弾いて歌ってもらって、録れたデータをミキシングする、

という形ならば、工程が分かれているのでミキシングの意識も大きいです。

 

しかし、PCで一人でDAWを使って完結させる、という場合、

作曲工程とミキシング工程が初めからくっついている状態なので、

改めてミキシングをする、というイメージは少し難しいかもしれませんね。

 

 

楽曲が出来るまでの工程がそれだけ様々であることが、

音楽の敷居の高さ、そしてその工程の曖昧さに繋がっている気もしますが、

ミキシングで言うなら、要は、

 

音のバランスをしっかりとる。

 

ここさえ押さえておけば大丈夫。

作業工程が違っていようが根本的にはなんら問題はありません。

 

 

ミキシングで一番押さえておきたい最初のポイント

 

これからDTMを始めるという方、やってみたけど微妙によくわからないという方には、

以下の二つから調整することをオススメします。

 

「音量」「定位」

 

これは、長年現場でやっているプロのエンジニアや、

私の知っている作家でも外からの評価が一つ頭抜けている人たちが、

ミキシングにおいて初めに意識している点、と言っていたからでもあります。

 

もちろん全てではないですが、ミキシング自体がよくわからないという場合は、

ここから見ていくと後々すっきり解決することが多いです。

 

 

エンジニアと聞くと、

「どんな凄い技術やノウハウであの音や音像を作り出しているんだろう・・・!?」

と普通は考えます。

 

確かに、「なるほどすげぇ!てかそれは無理だわ・・・」クラスの技術はあります。

 

でも、音源を聞いたり、実際に話を聞いたり、作業しているところを見せて貰ったりして思ったのは、

至極当り前のところを、当り前のようにこなしている

その積み重ねで出来上がっていることばかりなんですよ。

 

例えば、Sleepfreaksさんの下の動画。

 

4:20辺りからの、Cubase7.5から付属されている「MagnetoⅡ」の解説。

これを聞いて頂けるとわかるのですが、

 

エフェクトを掛けた結果、大きくなってしまった分の音量を、

原音と同じ感覚で聞こえる音量まで相対的に下げる。

 

ということをしています。

なぜかというと、この時点ですでに原音の音量調整は行われているからです

 

動画の講師の方が、実際どの段階で音量調整をされているのかはわかりませんが、

この流れから察すると、エフェクトを掛ける前にはすでに全体の音量調整は行われている

だから、エフェクトを掛けた後、音量が大きくなってしまったままではまずいのです。

 

 

ミキシングと聞くと、色々エフェクトもあるし、さぞ難しいことをしなくてはいけないのでは。

こういう風に考えるケースは当然あると思いますし、

私自身、当初は効果のよくわからないまま、話に聞くままエフェクトを使いまくってました。(笑

でも、よくわからないまま使ってみてもやっぱり安定感が全然ないんですよね。

 

 

はじめは「音量」と「定位」から

 

というわけで、ミキシングというものがよくわからない場合、

ここのバランスをまずはしっかり取ることを心がけてみて下さい。

 

それで、音量調整をして位置を横にずらしたりしても音が団子になったり、

この音はあんまり横には置きたくないんだよな~、という時に、

EQやコンプなどのエフェクトで解決するようにしていくと良いかと思います。

 

そして、初めはミキシングでのエフェクトと、音作りとしてのエフェクトは別で考えること

慣れてくればエフェクトの特性が理解されるので、次第に余計な作業が減っていきます。

 

 

これだけやるなら簡単だな!という印象もあるとは思います。

が、音を足していったり、曲の後半の展開を変えたいなど、

次第に要素を盛り込んでいくとこれが結構崩れてきたりします。

 

エフェクト差しまくって訳がわからなくなって、最初の状態に戻った時、

「何もしないほうがいいじゃん」ということもよくあります。(笑

 

悩んだり、困ったりしていなければ問題ありません。

ガンガンいこうぜでOK。

 

 

まとめ

ミキシングとは、

  • 音のバランスを取る作業のこと

調節する要素は、

  • 音量
  • 定位
  • 音色
  • 空間
  • タイミング

の5つ。

最初にミキシングで心がけるポイントは、その内の2つ。

  • 音量
  • 定位

 

 

人の数だけ世界があるので、色んな切り口があると思います。

ご参考にして頂けたら幸いです。

 

 

それでは!

 

【これってノイズ?】完成した曲に気になる部分があった時の2択

こんにちは、MAKOOTOです。

 

私、曲を作っていました。

そしてそれが完成しました。

 

やったぜ!

ふぃ~、やっと出来上がったわー、あー良かったー。

よし、聞き返してみよう。書き出しは問題ないかな?

 

 

「♪~~♪~~・・・ ヂッ ♪~~♪♪~~」

 

 

あれ。

 

なんかちっちゃくノイズっぽいのなかった?

 

え、何だ。

 

正直、気のせいにしたい。

でも、気になる。

 

 

もっかい聴くか・・・(←数回ループ)

 

「♪~~♪~~・・・ ヂッ ♪~~♪♪~~」

 

 

げ。

やっぱいってる。

ヂッて聴こえたーーー!!!

 

あああやっぱ気のせいじゃねえぇぇなんだよこれええええ!

 

 

というわけで、またもや謎のノイズが乗ってしまったようです。

 

前回の記事はこちら
録音されたオーディオの「プツッ」というノイズを一発で除去する方法

 

 

作者が自分である以上、めんどくさくても見て見ぬふりは出来ません。

自分以外、直す人なんていないんです。

そのまま世に出すわけには・・・いかないですよね。(笑

 

解決を試みてみましょう。

 

 

まずは原因を探ろう

ノイズが乗る時の大まかな原因としては、

 

  • 音の帯域が被りすぎた?
  • リミッターで音を潰しすぎて音割れした?
  • 折り返しノイズか、はたまた倍音干渉でもした?
  • 謎のラジオでも受信した?

 

・・・などをまずは思いつきます。

(ラジオはギターをライン録りしてる時たま~に受信することがあります(笑))

 

 

さくっとまとめると、

 

音同士の干渉

 

です。

 

音を同時に多く鳴らしている場合は特に顕著です。

 

ただ、音同士の干渉といっても、具体的にどういう組み合わせで発生したノイズなのかは上記の通り、様々あります。

 

 

 

音同士がぶつかり合って発生するノイズと聴くと、

爆音同士がぶつかって、

 

ブ・ブ・ブ・ブ・ブ・・・!!

 

みたいに音が篭って聞こえるケースを思い浮かべますよね。

大きな爆発音を間近で録音した動画みたいに。

 

 

2013年、ロシアに隕石が落ちてきた時の動画です。

かなりの衝撃的な出来事で、一時話題になりましたよね。

この動画の丁度1:00辺りが分かりやすいと思います。

 

 

音がめちゃくちゃ歪んでる

 

 

 

ちなみに、エレキギターのあのギュイーンとかザクザクいう音も、音が歪んでます。

厳密に言うとノイズ音とも言えてしまうのですが、

エレキギターの場合は意図的に歪ませて

それを使ってます。

 

ロックやメタルなど、もはや当り前のジャンルですが、

言い方を代えるとノイズ音と原理は一緒なんですよね、実は。

 

ノイズと思われる箇所を特定して原因を探る

サンプルを用意してみました。

フェードインしてきた、丁度0:01になる辺りで、少し音の上のほうでヂッて鳴ってます。スネアの16連のところです。

 

「ズッ タン ズッ タン ズン」

 

の、のところ。

最初は、ぶつかり合って発生したノイズかなと思っていたのですが、

よくよく聴いてみると、意図した音はしっかり出ています。

あからさまにバチッとはしていないんです、実際のところ。

 

はてなぁ・・・?

 

 

■ドラムだけver.
元々こういう音で、スネアのフィルを入れていただけということがわかります。

 

というか調べてみて、途中で気付きました。

「あれ、これノイズじゃないな・・・?」と。

 

 

はい。

ノイズではありません。

 

 

あれーーーー!?

 

 

 

 

 

上で散々、音がぶつかり合ってとか書いていた割に、

 

ここでまさかの

 

勘違い・・・!?

 

 

 

ここで一瞬、路頭に迷いかけます。

 

よくわからなくなって、ノイズっぽい音に向かって

おまえなんか猫のうんこ踏め!!!!

とか思い付きます。

 

 

音の干渉のノイズでないなら、さっき感じた「ヂッ」て違和感て何だ?

 

理屈では、何も間違ってない。

 

なら、問題視することもない・・・はず。

 

 

 

「ノイズ」という認識

それでも私は、

 

どーしても気になるんです。この音。

 

このフィルは、曲内の他の部分にも同様に使っていますが、

他の箇所は特に問題ないんです、聞いてても。

 

どうしてもここのフィルだけは気になる・・・

 

 

これ、結構大事なところなんですけど、

 

一見、問題がなさそうに思われる。

 

しかし、例え理論的に問題が無くても、

何も考えずにパッと聴いてみて違和感を強く受けたら

 

 

それはそれでアウト

 

 

なんです。

 

なにかしらダメだったんでしょう、自分の感性からしてみれば。

 

 

音楽には結構こういうところがあります。

理屈よりも感性の方を重視する傾向が大きい、という部分。

 

この場合だと、理屈上問題ないよと言っても、

聴いてる人間がノイズだと認識した時点でそれはノイズになります

 

 

「どんなにクオリティが高い曲でも、あんまり好きじゃないから聴かない。」

 

これは至極当り前のことでもあると思いますが、

音というものは、そもそも目には見えないし手で触れられない。

触れられるのはそれを出す楽器であって、音自体じゃない。

 

その音どこ?って言っても、振動ですから。

 

音楽というモノは、境界線がすごーく曖昧なんです。

 

 

 

音楽に「これ」という答えはない。

音楽をやってる人は、この言葉よく口にしてるんじゃないかなーと思います。

 

「ハマってて、かっこよかったらいいと思うよ!!」

 

上の画像の方もそうおっしゃってくれています。

というかめちゃめちゃ賛成してくれてる。とても嬉しいことです。

 

 

ただ、だからといって出鱈目に音を並べただけで音楽かと言われたら、

 

それもまぁ音楽なんですけども、

 

それが好きか嫌いかはまた別ですよね。

 

 

今の世で音楽として通じるものを作るには、

やはりある程度の知識や土台が必要になります。

 

 

ただし、「決まれば、それでOK!」という認識も強いのが音楽の特長です。

 

 

 

気になる音の箇所を修正する

他の箇所は問題ないのに、

ここだけ気になる音を発生させていると耳が判断した時点で、

結果的に、音の干渉によるノイズと同じという事になります。

 

 

この、自分の中でノイズレベルに感じる音は、

 

そこのタイミングでのみ鳴っている、

この音と、その他の同時に鳴っている音との重ね合わせで生まれている。

 

このフィルを使ってる他の箇所は、やはり微妙に音の鳴りも構成も違う。

 

音の重ね合わせで、妙に飛び出して聴こえたりとかたまにするんですよね。

シンセの音作りなんかは、むしろそうやって新たな音を作り出します。

 

さて、長くなってきたので、もうこいつをサクッと解決してみましょう。

 

 

フィルを止めて、ただの単発にしました

0:01のところ、タラタンタタンにしました。

ここでのフィルのアタックが、中高域の濁りを刺激するような音なので、

16分のフィルをやめて、8分のスネア単発に差し替えます。

 

そして、もちろん録音もやり直します。

私は基本、全ての音データをオーディオに変換してからミキシングをするので、

むしろこの録り直しが多少めんどくさいが為に、ノイズが出た時はよく叫びます。

 

嘘であってくれと・・・!!(笑

 

 

録り直し終わったら、再度全体と合わせて聞いてみます。

うん、ばっちりですね。スバラシイ。

そもそも違うところが凄い気になるんですけど、というケースはナシで

 

 

ちなみに完成版はコチラ

 

 

終わりに

今回のノイズ除去に関しては、具体的なノイズ除去方法というよりは、

・客観的にも含めた上で、ノイズと認識されるのか・されないのか

と、

・音同士の重なり合いで意図しない音(ノイズ認定)は出ることがある

ということの記事になりました。

 

 

それと、上で

「理論的に問題が無くても、感覚で違和感を強く受けたらアウト」

と書きましたが、

 

この逆パターンの方が、音楽経験が浅い段階ではよくあります

 

私自身も、音楽に関する経験はまだ全然足りないと思っています。

むしろ上限なんてあるのかと思うくらい。

 

ただし、これまで培われてきた、

色んな曲を聴いて刺激を受けて、あれこれ試行錯誤して、

そうやって出来上がってきた今の自分の感性を無視することは一番良くない

 

理論と感性、一見違うようでこれは表裏一体のもの。

 

今回は感性を優先させる内容で進めましたが、

バランスは、大事です。

 

 

ノイズが具体的にどういった音の重なり合いで出るのかとかは、

また別の機会にしようと思います。

 

それでは!

 

録音されたオーディオの「プツッ」というノイズを一発で除去する方法

今回は、DAWなどで録音されたオーディオデータに、意図せずノイズが入ってしまった時の対処法を紹介したいと思います。

なぜこの内容の記事を書いているかというと、先日音楽素材として自分で作った曲を販売するためにオーディオストックさんに楽曲を登録していたのですが、一曲だけ、曲の終わりにノイズが乗っていた為、登録審査に落ちてしまったからです。

楽曲を複数同時に作っていると、たまにこういうミスが起こってしまう。
なので、ミックスダウン後は基本、数日数回に分けて私は最終チェックをするのですが、
今回ループ素材を作っていて、その曲の一番最後の部分に

「プチッ」

というノイズが乗っていることに気付かずに投稿していたようです。
ぬああなんてこった!!集中力が足りない!!!笑

 

※2018年5月追記 この記事は、書いた当時の私の環境から実感した内容を書いています。様々な環境を若干考慮に入れていない節がありますが、どうぞご了承下さい。(これも一つの記録ということで残しています)

 

対処すべきノイズの種類

さて、私のおバカな叫びはさっさとスルーするとして。

そもそもノイズの種類なのですが、今回のノイズは電気的なON/OFF時に発生する種のノイズです。(細かい分類は割愛します)

例えが少し古いかもしれませんが、ブラウン管のTVの電源を落とした時の「プツンッ」という音。あれと同系統のもの。

瞬間的に出る音なので、マイクで録音する時の「サーッ」とか「ザーッ」とか常時聞こえるホワイトノイズの種ではありません。

 

どこの作業工程でノイズが乗った?

今回ノイズが乗った曲のミックスダウンされた初期のバージョンを聞いてみると、曲末尾のノイズ音はありませんでした。

その後のバージョンを1つ1つチェックしていくと、末尾の音量を大きくしだした途中のverから末尾に「プツッ」とか「チッ」とか入っている。

 

毎回微妙に違うノイズ音が入ってる・・・。

 

このことから、自分のオーディオデータ自体にはノイズが元々乗っていなくて、それをミックスダウン、つまり最終書き出ししたタイミングでノイズが混入しているとわかりました。

 

ノイズが混入した原因

今回、ループ素材として3曲ほぼ同時に作成していたので他の2曲と改めて比較してみました。

一曲は、末尾が無音で終わるもの。
こちらはほぼ無音部からループされる形になっていたためか、ノイズが発生していませんでした。審査も通りました。

もう一曲はロックテイストで、曲の最後と最初は割と音が出ています。
もしかしたらノイズが小さく乗っているかもしれませんが、エレキギターをサイドで鳴らしているので、ループしても問題ないように聞こえます。こちらも審査は通過。

 

そして、問題の今回ノイズが原因で審査に落ちた楽曲。

ピアノ・ストリングス・ブラスが曲末尾で盛り上がり、そこで曲は一旦終わり、冒頭にループする形をとっている。曲の頭はピアノのみなので、ブラスやストリングスがいきなり無くなる形です。

ストリングス系は生音系といいますか、アナログ的な音質なので、電気的なデジタル音が入ると質感がかなり違うため、この手のノイズが発生すると割とわかりやすいように思います。

 

以上の考察から、これはどうやら、

ある程度音が出ている状態で録音がバツッと終わっている為、

ノイズが混入してしまった

と考えられました。

 

各エフェクトを使用することでのCPU・メモリ使用負荷が原因かと思い、改めて新規プロジェクトを立ち上げて負荷をほぼゼロにして、同じ曲をところどころで切り取るように録音してみましたが、やはりノイズが末尾に乗るケースが多い。

 

実際に聞いてみる

 

例えば、このサンプル、

0:01の部分が、ループ前と後を繋げた箇所ですが(ブラス系がある・なしの境目)プツッという音が入っています。これが審査に落ちた原因のノイズです。

 

正直、このサンプルの最後にもプチッとノイズが新たに入ってしまっているので、

音が鳴っている状態でいきなり録音を終わらせると高確率でノイズが入る

と思ったほうがいいレベルになっちゃってます。

全てではないし、ケースバイケースなことが多いですが、これではループ素材が運によって作れるか否かが決まってしまう・・・

 

例えば、ゲーム内でのBGMループ処理を行う場合は、曲を作成・提供する側はループ処理をオーディオデータに施す必要性は必ずしもありません。

ただし今回は、曲を実際に使う側が、そのデータを単に繰り返し再生するだけでループされる状態に「製作側で予め作り上げておく」必要のあるケースです。

使用者側が、使用権を獲得したBGMになんらかの加工をすることが禁じられている所もあるので、製作者側はなるべくそのままのBGMデータを使用してもらう状態で完成させておくに越したことはありません。

 

さて、長々と原因を絞り込んできましたが、大体傾向がわかってきたので、そろそろ解決に向かおうと思います。

早速この録音時の「プツッ」という末尾ノイズを取り除いてみましょう。

やり方はぶっちゃけ超カンタンです。

 

フェードアウト機能を使う

ノイズが乗る原因である、

音の出ているオーディオデータを短めにフェードアウトさせてしまいます。

 

音が出ているからノイズが乗るならば、

ノイズが乗る部分を瞬間的に無音に近い状態にすればよい

という考えです。

 

しかし、素材として今回の曲は、

最後を盛り上げてから淡々とした曲の頭にループする

というもの。

 

極端にフェードアウトさせてしまうとループとしてはかなり不自然になってしまいます。

どの程度のフェードアウトでノイズが消えて、ループとしても問題ないか検証してみました。

 

丁度良いポイントはどこだろうと、まず0.001秒単位でフェードアウトをかけて録音してみたところ、いきなりその0.001秒分でノイズが消えた。

うおー、まじっすか。

 

ケースにもよるかと思いますが、今回の場合、

0.001秒のフェードアウトでノイズは発生しなくなった。

 

1:46.639秒 → 1:46.638秒 にフェードアウト処理

※DAWはCubaseを使用しています

 

 

人間の聴覚はとても精度の高いもので、わずか0.001秒のずれもしっかり聞き分けています。

それだけ精巧だからこそ、左右から音が出ているのに真ん中から聞こえるという錯覚を利用して、ステレオ感やモノラル感を楽しめるわけです。

が、実際に「0.001秒ずれてるね!」という正確なズレを言い当てられるかというと、今の私には正直出来ません笑

少なくとも、人間の聴覚自体は超優秀ですが、私の感覚は割と普通なので、上記の処理後もノイズ以外の違いがほぼわかりません。

 

自分でフェードアウトをかけておきながら、それが本来の音の減衰によるものなのかの違いがわからない。

どちらも似たような印象なのでそのような違いを聞き分ける必要はそもそもないのですが。笑

 

 

ちなみにフェードアウト処理後

 

0:01辺りのこの曲の末尾と冒頭の間に発生していたノイズはこれで取れました。

少なくとも、私の耳では!(笑

むしろ、このサンプル自体の最後のノイズがやたら顕著です。

そもそもこの末尾と冒頭の構成でループとしてありなの?とかは聞かない。

 

さて、結論ですが、

私の感覚では、左右で0.02秒の差があるとステレオ感がよく実感でき、0.01秒差辺りからモノラル感が強くなる印象があるため、

0.001~0.01秒の間でフェードアウト調整を行う

と上手くいきそうです。

個人的には、その中間辺りの0.005秒くらいだと丁度良さそうかなぁという認識です。

 

まとめ

録音時に、オーディオ末尾に発生する「プチッ」というノイズ音は、

フェードアウト処理で除去する。

あからさまに音割れやCPU負荷などかけていない場合、大抵はこれでクリアにできます。

これはDAWでギターなどを録音したりして、パンチイン・アウト(部分的に録音し直す)などして、上手く演奏できたテイクを繋ぎ合せる場合と同様のテクニックでもあります。

同じ音で沢山のテイクを録り、それを1つに繋ぎたい時は、クロスフェード(フェードイン・フェードアウトをオーディオを重ねて行う)を行うと、大分綺麗に聞こえます。

 

一発録りでいければ、それに越したことはないんですけどね。

手間も省けるし。笑

 

※追記:2017年5月12日

上記ノイズ除去操作を行って再度投稿したところ、無事審査を通過しました。やったぜ!

 

 

最後に

音に関しては完全な境界線というものを非常に引きにくいです。

細かな数値設定はあくまで参考程度に御覧下さい。