2017年秋M3のバトルコンピ「Battle Collection 3」に参加しました

こんにちは、MAKOOTOです。

2017年10月29日に東京流通センターで開催される、音系・メディアミックス同人即売会M3に参加してみました。

 

参加作品はバトルものをモチーフにしたコンピレーション企画、

「Battle Collection 3」

という、大層カッコイイものに参加させて頂きました。

 

M3って何?

簡単に分かりやすく言うと、コミケあるじゃないですか。あれの音楽だけの同人即売会

ニコニコ動画が流行った頃、初音ミクの曲が流行ったじゃないですか、流行ったんですよ。あれ。有名・無名を問わずああいうボカロ曲なんかを作ってる人達が、自分達でCDを作って売るイベントです。

私が知っている15年くらい?前はあんまり人もいなくて凄く閑散としてて、のんびり~なごやか~な感じだったんですけど、ニコニコ動画、Youtubeなどのネット社会が普及してきて、今では結構人が沢山くるイベントになってます。

主な作品は、

  • 初音ミクなどのボカロ・歌ってみた作品
  • オリジナル作品
  • ボイスドラマ作品
  • 同人シューティングゲームである東方作品(神起じゃないよ)
  • ゲームアレンジ作品

・・・などなど。

今はオリジナルとボカロがメインなのかな。その少し前は東方。その前がゲームアレンジが流行ってたという印象。そしてブースを取ってサークル参加する側(作品を作る人)の中にはプロ・アマ問わず色んな人が参加してます。

 

東京流通センターの場所は

東京モノレールの「流通センター駅」の目の前。

品川の南の大田区にあります。

 

M3の開催頻度は

年に基本2回。春と秋に東京で開催されています。

大阪で開催されたこともありますが、基本東京みたいですね。

 

Battle Collection 3

今回私、sayaquさんという方主催の「Battle Collection 3」という、バトル曲をイメージしたコンピ企画に参加させていただきました。なんと50曲入りだそうです。ケタ違い。

頒布ブースは、第一展示場O-10a、頒布価格1500円

 

私の参加曲のタイトルは、

「ホカホカ村の大剣士じゃがいも」

という、

全く空気を読もうとしないタイトルになっております。

リストを見るとわかるのですが、参加される皆さんほぼ横文字。英語です。かっこいいのです。そんな中、突如表記される「ホカホカ村の大剣士じゃがいも」とか・・・

マジでなんなのコイツ感ハンパない。

友人のEBI君なんか「The Man-made Dryas」とかなんなの。超かっこいいんですけど。

 

もっとこういうヘンテコ系タイトルあるもんだろうと踏んでいたのですが、大分孤立している感じでございます。唯一、遊句さんという方の「甘栗こぶし」というタイトルが私は気になって気になってしょうがないのですが、ううむ・・・私の感性はどこかおかしいのだろうか。

いや、全く問題ない。今後もこれで生きていこう。

 

タイトルは絶海の孤島状態ですが曲は割と真面目に作ってます。

曲は(というかタイトルも)真面目に作りましたが、やっぱりホカホカ村の若き英雄じゃがいも!!って感じの曲なんですよねぇ。

ほら、コミカルな主人公っているじゃないですか。そういう見た目コミカルで、こんな可愛いのが世を救う旅に出るの!?っていうゲームあるじゃないですか。でも中身はめっちゃシリアスで作りこみがえっらい深いやつ。

 

有名ではないけどクオリティはしっかりしているので、知ってる人は知っているみたいなギャップ差のあるゲーム。そういうのをイメージして作った曲なんですよね。だから曲は、

「お、なんだ。バトルBGMは普通にかっこいい感じなんだな」

という印象や、また同時に何度も聴いて段々と

「味があるかもなぁ、悪くないじゃんか。」

という風に思ってもらえるようにも想定していて、尺も3分半とバトルものにしては長め。

 

はい、この通り本人は至って大真面目にこのタイトルを付けております。ただ、私の楽曲は、単体で聴くと至ってフツーな感じかと思います。他の参加者の方々の方が絶対聞き応えありそうです。

よろしくお願い致します。

 

おわりに

M3自体は割と純粋に音楽を作ること・聴くことが好きな人が沢山集まるので、昔に比べて規模は大きいですが、まぁのんびりした雰囲気は相変わらずな気がします。

 

プチ宣伝でした。

そいではー

 

【Lv2】ゲーム製作者から敵ボス画像が送られてきたので曲を作ってみる

MAKOOTOです。

前回の記事では、イメージ抽出まで終わりました。【Lv1】ゲーム製作者から敵ボス画像が送られてきたので曲を作ってみる

今回はその続きで、私の実際に曲を作っていった大まかな流れをご紹介してみます。曲作りは人それぞれ色んなやり方があると思いますので、参考に出来ることがあればどんどんして下さい。特にないなって方は、その人は私をすでに超えている・・・!!

ベジータのセリフである、

「お前がナンバーワンだ、カカロット!!」

これです(笑

 

それでは早速書いていきます。

 

まず曲のイメージと尺の長さの仕様をチェック

今回はこの格闘タイプの赤ボスをイメージした曲となります。

次ボス

そして、前回抽出したイメージは、

  • ノリの良さ
  • 小刻みなブラス・ギターなど
  • 機械音としてのシンセ・オルガンなど
  • 荘厳さはいらない
  • 壮大さは少しはあるほうがいい
  • 少しのコミカルさ
  • ドラムをがっつり

 

コンブというゲームの基本的なBGMの尺は、大体1:30~2:00くらいを平均として作っています。特別な意味合いを持たせたステージや戦闘はもちっと長めに作りますが、このゲームの仕様上、基本はそんなに尺を長めに取らなくてよいという指示を製作者であるtonowiさんから貰っています。

 

例えば、

イントロ → Aメロ →(Bメロ)→ サビ → 間奏 → イントロへループ

というワンフレーズくらい作ると大体1分30秒くらいになります。

今回作る曲は、イントロのギターリフを作った時に「この流れを維持して変にあれこれしない感じでいくとよさそう」という道が見えてきたので、

イントロ → Aメロ → イントロ´ → サビ → イントロへループ

という構成になりました。BPM140のこの構成で、大体1:30くらい。

 

ラフ作成

出来上がったラフを先に載せておきます。

サンプル曲

ブログ用に曲一部だけ切り取って~とかも考えたのですが、尺短いし、めんどいからフルで載せてしまいます(笑

 

ちなみに製作者のtonowiさんからは例えば、「正規版に使われる曲は、正式にゲームが公開されるまでは控えてほしい」と言われています。

なので、こうしてコンブ正規版に実装されるかもしれない曲の公開は基本NGなわけですが、今回は宣伝も込みで製作過程を記事にするという形で公開しています。まぁ、この曲が実際採用されるかどうかはまだ決まってないんですけどね!

ラフで使用した音源は以下の通り。

  • ドラム - Superior Drummer 2.0Toontrack
  • ベース - TrilianSpectrasonics
  • シンセ - Retrologue 2トラック(Cubase内蔵)
  • シンセ2 - Xpand!2 5トラック(Air Music Technology
  • シンセ3 - FM8Native Instruments
  • ギター - HALion Sonic SE(Cubase内蔵)
  • ブラス - Hollywood Brass Diamond EditionEASTWEST

ギターは生演奏にする予定なのですが、ひとまず音として置いて雰囲気を感じたかったので、ラフ段階では打ち込み音です。

 

ラフ完成まで大体4時間

このラフを作るのに今回かかった時間は大体4時間くらいでした。速い時は1~2時間くらいでラフが出来て、3~4時間くらいで一曲完成!ということもあるのですが、今回コンブの他の曲と似すぎたりBPM被りすぎたりしないかとか、なんかイントロ思い浮かばないなぁと若干難産だったので、最初の一時間はその試行錯誤で潰れてしまった。

一時間考えて何も形に出来ない時は、しょうがない何か違う曲を聞こうとか、風呂行って鼻歌しようとか、色々します(笑

 

抽出したイメージの表現

  • ノリの良さ

ギターのリフを単純明快なものにしてみる。

  • 小刻みなブラス・ギターなど

発進していく曲の雰囲気から、ブラスで「ババッバ ッババッ」と統一。

  • 機械音としてのシンセ・オルガンなど

普段は裏方として使うオルガンをメインリードにして、あとは飛び交うシンセで機械が動く戦場をイメージ。

  • 荘厳さはいらない

曲の雰囲気から入れる余地がなかったので問題なし、クリア。

  • 壮大さは少しはあるほうがいい

サビでストリングスのスピカート若干入れたり、なんかかんや詰め込んで解決。(何

  • 少しのコミカルさ

イントロなどで、右と左で交互に掛け合いをするシンセで表現。(何

  • ドラムをがっつり

ギターもりもりで音数も多めなので、ドラムは音を硬めにしてノリを感じられたらOK。

 

・・・という、非常に大雑把ですが、一応全項目意識して取り入れてみました。ちょっと強引なところもあるのですが(笑)、こういう細かい自分なりの設定にはあまり時間を掛けたくはないので、ここはパッパッパッと思い付いた内容を形にしていきます。

 

ラフ作成後に、一晩寝かせて翌日改めて聞く

私の場合、部屋であまり音を出せない環境なので、作業は基本ヘッドホンで行っています。ですので、長時間曲を作り続けていると、耳の客観性が段々と失われて、音のバランスや良し悪しの判断が鈍ってきます

この状態から一度リセットを掛けるために私がやっていることは、

一旦曲の製作作業から離れて、
しばらく経ってフラットになった状態で改めて聴き返す

こうすることで、前回気付けなかった改善・修正点が見えてくるので、私はよくそうしています。その日のうちに完成~!という場合でも、絶対次の日か後日に聞き直しはします。即「完成!公開!納品!」とかはまずないです。

このラフサンプル曲も、そういう意味で「全体像を把握できる程度」という形にしています。ここで下手に作りこむということをしないのは、後日聞き返した時の新たな気付きを取り入れ易くするためでもあります。

 

ミキシング作業

次の日、リセットの掛かった状態でラフを聞いてみます。そうすると、

「んー、思ったより昨日感じた印象と変わらないし、このままの路線でいいかな。」

という風に今回は思えたため、そのままギター録りとミキシング作業に入りました。

がっつり時間を掛ける必要のある曲の時はもっとDAW内を整理するのですが、今回のようにサクッと曲を仕上げる場合、整理も割と最低限。自分が分かればいいくらいにしてます。

そして、ドラム・ベース・レトロローグはそのままで、他の音源は一旦全てインプレイスレンダリングでオーディオ化します。

MIDIトラックをオーディオと同じように扱うこともできますが、たまに音色データが謎のリセットを食らって何の設定を施したか戻って来れなかったことがあるので、HDDの容量は食いますが私はなるべく各トラックをオーディオ化します。Xpand!2のシンセも一本ずつエフェクトかけたいですしね。

 

ミキシングで大雑把にしたこと

箇条書きします。

  • 打ち込みギターを生ギターに差し替え
  • イントロ・Aメロ等、各セクションの抑揚付けとコード確認
  • FXチャンネルでリバーブ・ディレイのエフェクト掛け
  • コンプ・EQで各トラックの調整
  • ドラムの細かい修正
  • 曲ラストの、サビからイントロループまでの入りを調整

 

そして大体ミキシング作業が終わったら一旦書き出してプレイヤーに移し、既に出来上がっているCombatHeaven用に作った他の曲と聞き比べて、音量調整などの簡易マスタリング作業をします。

もう10年以上使っている「WINAMP」で確認。

ここで大概、新たに気になる点に気付いたりするのでちょいちょい修正を繰り返します。そして最後に、まず一回目で何も意識せずに聞き、二回目で粗探し的に聞いて、どちらのパターンでも大丈夫そうだなと思えたら、ループで曲のラストに「プツッ」というノイズが乗らないよう処理をして、最終書き出しします。

今回のラフ完成からミキシング完了までの所要時間は、大体6時間程度

 

完成、トータル10時間程度。

出来上がった完成曲はこちらでございます。(ジャンジャジャーン

完成曲

 

大きく変わった点といえば、

「遠くに見える敵が急激に近づいてきた!!」

という、敵ボスが前に出たり後ろに退いたりという演出を表現するため、

イントロ → Aメロ → イントロ´ → サビ → イントロへループ

の、緑色の部分のイントロでは、センターにあるギターにフランジャーを掛けて音量を小さめにし、逆に紫色のAメロ・サビでは左右にギターの壁を大きく作ったのが1点。

 

それと、イントロループに入る前のラスト一小節を削って完結感を無くし、

「これで終わりと思うなよ・・・!!」

という、まだ次がいるんだぞ的な表現にした方がかっこいいなという2点ですね。

 

それ以外は、概ねラフの通りだと思います。

 

まとめ

私はどちらかというと音数を多めにするので、総合的にうるさい印象はあるかもしれません。

次ボス

が、このボスの見た目の厚みもあって、これはこれで良い!ということにしました。

ダメなら音数の少ない曲を別で作ればいい。

 

・・・実はこの曲、ラフの時点で自分の中のイメージとはちょっと違う形になったなぁとは思っていて、完成はさせるけどこれとは別でもう一曲書く予定だったんですよ。

でも、聴いているうちに段々好きになってきちゃった(笑

最終的にこの曲はこれで結構良いやんかと思っています。ですが、一応この絵を元にもう一曲書いてみようと思うので、それが出来たらまた記事にしたいと思います。

 

それでは!

 

【Lv1】ゲーム製作者から敵ボス画像が送られてきたので曲を作ってみる

こんにちは、MAKOOTOです。

先日CombatHeaven(コンブ)作者のtonowiさんからこんな画像が送られてきました。

次ボス

体験版にはいない、正規版実装予定の新しいボスだそうです。まだ線画のみですが、格闘タイプということでこれは多分ボツにならずに実装される感じだと思う。

なので、この画像からこいつに合いそうなイメージを探して曲を作ってみます。

 

私がコンブの曲を作る場合、こうしてどんどん送られてくる設定や画像から勝手にイメージを起こして曲に仕上げていくことにしています。

実際にそれがそのまま採用されるワケではないのですが、要望のある曲とは別で曲を提供することで相手のイメージの刺激に少しでもなりやすいことと、自身の曲を作る訓練にもなると思っています。

それに、私の曲でコロコロイメージが変わるほどtonowiさんの中にあるイメージは弱くないので、むしろ作れるならガンガン作って、ガンガン送る(笑

 

イメージに近いBGMを既存の曲で探してみる

コンブの世界観とこの赤い格闘タイプのボスを見て、今回パッと思いつく音楽のフレーズが出てこなかったので、世に出ている既存の曲から近いイメージを探していきます。

最初に聞いていて、近いかなーと思ったのが、サガフロの「真の首領戦」。ただこのBGMはストーリー終盤ということでドラマティックなBGMでもあるので、今回の赤ボスには重いかなぁ。ちと腰を据えすぎている感もある。

意外と合うかなと思ったのが、FF4の通常ボスバトル曲。ノリの良さが赤い格闘タイプの攻撃ラッシュをイメージ出来たので、このノリはありだなぁ。しかしメテオ強いな(笑

FF8の「The Extreme」。The Black Magesのアレンジですね。原曲よりこのアレンジの方がシンセやエレキギターを使っているので、機械のボスにはイメージが合う。小刻みなブラス機械音としてのシンセ音が、赤ボスのイメージに合いそう。

 

少し、この赤ボスのイメージが絞られてきました。

次ボス

  • ノリの良さ
  • 小刻みなブラス
  • 機械音としてのシンセ音

 

ギターはやっぱあったほうがいいかなぁ、ドラムの方向性もまだちょっと不透明。

…というわけで、引き続きイメージの抽出を続けていきます。もう少し全体イメージを固めたい。

 

既存曲からイメージ抽出中

ゼノギアスの「覚醒」。これも思いっきり機械兵器ではあるのですが、ゲーム内では3D戦闘でもあることから、赤ボスにこの臨場感はちょっと向かないように思う。むしろこの手の荘厳さは終盤のストーリーを感じさせる場面のがいいかな。

あ、私この既存の曲に関してあーだこーだ言ってるわけではないですから。コンブの2D赤ボスでこの「雰囲気」を乗せたらどう思うかというイメージを出してるだけなので。

ゼノサーガⅢの「The Battle of your soul」。この曲も壮大なんだけど、あまり場面に対する重さは感じない。むしろ、ただ無為に大きなモノに向き合っているような、そういうイメージを感じるので、赤ボスにはこのくらい余計な感情はない方がいい気がする。

聖剣伝説3の「Hightension Wire」。意外にこういう曲がハマったりする。ドラムが良いなぁ。2Dの少しコミカルなところが合う気がする。ただ、若干明るすぎるかな。これよりはもう少し重さが欲しい。

Legend of Manaの「Pain the Universe」。うーん、オーケストラもいいとは思ったんだけど、やっぱりこのくらいギターとドラムでバカスカやってる方が合う気がするなぁ(笑

オルガンは・・・んーどうしよう。ついつい多様しちゃうので、使用を控えめにして曲毎の差別化を図りたいところではあるのですが。

 

抽出したイメージをまとめる

さて、色々イメージが固まってきた気がするのでここいらでまとめてみます。

  • ノリの良さ
  • 小刻みなブラス・ギターなど
  • 機械音としてのシンセ・オルガンなど
  • 荘厳さはいらない
  • 壮大さは少しはあるほうがいい
  • 少しのコミカルさ
  • ドラムをがっつり

 

こんなところでしょうか。全部実現しようとは考えてませんが、これで、

おおまかな曲の方向性は見えてきた!!

 

ひとまず、このイメージを元に曲を書いてみることにします。

 

今回のまとめ

私がBGMを作るときは、例えば相手のもつ世界観(今回の場合、コンブでの赤ボスの立ち位置など)や要望をまず自分の中に取り込んで、自分だったらどういう曲がここであるとうまくハマるかな、かっこいいと思うかな、作品にのめりこむかな

こういう風に考えて曲作りをするのが1パターンとしてあります。

 

イメージ画像などを見てすぐに発想が形になるのであれば、この抽出作業は端折ってしまいますが、私の場合もっと自分の中のフィールドを広げたいので、基本的には、既存の色んな楽曲を聴いてイメージを持ってくるようにしています。

今回は、この動画のメドレーからイメージを抽出してみました。

もっと色んなジャンルや別の分野からイメージを取り入れたほうが、もちろん新たな印象を加えられるでしょうが、そんなにいっぺんにあれこれできるわけもない。

自分の出来ることから、毎日一個ずつ新領域に踏み込んでみるくらいでいいと思ってます。

 

実際の曲起こしは次回の記事にしたいと思います。

【Lv2】ゲーム製作者から敵ボス画像が送られてきたので曲を作ってみる

 

それでは!

 

【EQ・Lv3】ドラム・ピアノ・ベースという組み合わせ時の簡単なEQ使用例

こんにちは、MAKOOTOです。

 

今回はEQを実際に弄ってみて、その使い方の基本をなんとなく覚えてしまおう、

という内容の記事です。

 

私自身、勉強することは毎日山のようにあるのですが、

その道中の過程を少しでもお役に立てて頂けたら幸いです。

 

是非、私の屍を越えていって頂きたい。(生きてますけど

 

 

DTMにおけるEQの用途

大きく分けて、二つの意味合いがあると思います。

  1. 音作りで使う
  2. バランスを整えるのに使う

 

音作りをする場合は、例えばエレキギターの音。

エレキギターの音作りの方向性は色々あるかとは思いますが、

私の例を出すと、

「サイドギターで使用してあまり主張しすぎないように使いたいので、

もう予めハイとローをばっさりカットしておこう」

とか。

 

そしてバランスを整える場合ですが、EQはどちらかというと、

このミキシングなどのバランス調整で主に使用することが多いのではないかと思います。

 

 

エレキギターやシンセ音など、

人工的な音に関してはEQは音作りに積極的に利用されますが、

アコギやオーケストラ楽曲など、

生音主体で曲を作る場合はあまりEQを弄らない方が自然に聞こえます。

 

音作りでのEQは分野が絞られるので、

今回はミキシングなどのバランス調整での使い方をざっくりご紹介できたらと思います。

 

 

ミキシングのEQ使用例

サンプルを用意してみました。

 

曲の構成は、ドラム・ベース・ピアノの三つです。

これを実際に整えていく形でEQの使い方を見ていきます。

 

ちなみに音色は全部Cubase付属のものを使っていて、

  • ドラム:Groove Agent SE「Vintage Kit 1」
  • ベース:HALion Sonic SE「Precision Flatwound」
  • ピアノ:HALion Sonic SE「Bright Rock Piano」

というラインナップです。

 

なんとなく良さそうかなーというのをサクッとチョイスした体なので、

綿密に音を吟味したわけではありません。

 

が、この状態からどう音を整えていくかという意味ではよい訓練になるので、

今回はこれでいってみます。

 

 

上のサンプルは、

ドラムのシンバルだけ少し左右に広げてリリースを途中で切っているのみで、

あとは何も弄っていない素のままの音です。

 

素のままの音なので、ちょっとボワッとした印象があるので、

少しスッキリさせる方向でEQを弄ってみたいと思います。

 

現時点での方向性は、

キックの音が割と派手目なので一番下にもってきて、その上にベースを乗せる感じ。

ピアノはアップライトな感じに仕上げてみようかなと思います。

 

 

ベースのEQ例

私はベースの音を基盤にしてミキシングすることが多いので、まずはここから見ていきたいと思います。

・ベースの素の音

ベースEQ前

ちょっとボワッとしてるかなぁというのが私の第一印象。

今回は他にドラムとピアノしかないので、ムンベ(ドラムンベース)みたいにベースを全面に主張させてもいいのかもと少し思ったのですが、ベースの動き自体はルート音をなぞるだけで、しかもピアノの主張を強くさせてしまった。

なので、ベースはやはり軽く整える程度にしておこうかと思います。

ただ、EQを使う時の注意点なのですが、このモコモコ感を失くそうと、EQのみで低域を整えようとした場合、不自然に音が細くなってしまうケースが多いです。

 

経験上、かなりEQをがっつり削り気味にしないとすっきり聞こえない。でもそうすると、音がえらい細くなってどうしたもんかという状態になってしまう。

周波数を弄るEQの基本使用として、「ブーストする場合はQは広め、カットする場合はQは狭めで使用すると、音の変化に不自然さが出にくい傾向がある」

と言われています。

 

Qの基本

前回の「EQ・Lv1」ではこの表示が実は逆になっていますが、まずはブーストする時は広く、カットする時は狭くを基本として使用してみましょう。色んな本でも書かれてはいますが、その方が不自然さは確かに出にくいと私も思う。

というわけで、このベースのモコモコ感はコンプで解決することにして、コンプの前と後にEQをそれぞれ用意して、整える方向でいってみます。

 

ベースにインサートしたプラグインは、「EQ1ーComp-EQ2」の順番です。

 

ベース・EQ1

ベースEQ1

コンプに行く前のEQ調整です。

  • 一番左のローカット

キックが一番低域であることを強調するためにかけました。

  • 左から二番目の127Hzでのカット

後のコンプによる歪みでこの辺りがモワつくのを予め抑えるためと、キックのここの部分を気持ち強調させるために。

  • その右の420Hz辺りをブースト

コンプによる歪みを少し加えるのと、ここを持ち上げることによってベース音に少し厚さと明るさを出すため。

  • 一番右のシェルビングによるハイカット

正直いらない気もしましたが、念の為ベースの余計な高域を抑えるためにかけています。

 

ベース・Comp

ベースコンプ

EQ1を通ったあとのコンプの設定は上記の通り。

あまり歪ませるつもりはないのでスレッショルドは浅めにとり、ただモワつきを抑えるのとベースという役割からレシオは8:1。アタックは、このベースがそんなに突飛な動きをしていないことから緩めの36msec程度。リリースは100msec程度に収めて音の戻りも多少滑らかに、という意図で設定しています。

 

ベース・EQ2

ベースEQ2

コンプ後のベースを若干整える気持ちで使用しています。

左のローカットはコンプで潰してもやはり出てきてしまう60~70Hz辺りの低音を、ダメ押しで若干不自然にならない程度に削りました。右の1.4kHzのちょっとしたブーストは、この曲音色が少ないことからちょっとだけベースの色を出してもいいなぁと感じて少し持ち上げています。

 

・出来たベースの音

少し軽く、明るい感じになったと思います。

私は基本、ベースにはアンプなどの歪み系を入れてもっとブリブリさせるのが好みなのですが、今回はEQ回なので(コンプは使ってしまっていますが)、これで良しということにしました。

 

 

ドラムのEQ例

次にドラムです。今回はドラム丸ごとにエフェクト処理をしていきます。

・素のドラムの音

少しさっぱりし過ぎな気がするので、今回はドラムをもう少し雑に聞こえるよう低音をメインに少し調整してみます。

インサートしたプラグインはベース同様、「EQ1ーComp-EQ2」の順番です。

 

ドラム・EQ1

コンプの前にかけるEQの処理は、

  • 150Hzちょいブーストさせてコンプの潰しを若干効かせる
  • 1.5k、2.5kHzを少し削って耳触りを若干すっきり
  • 8kHzより上を気持ち持ち上げて、金物のシャリを若干強調

 

ドラム・Comp

ドラムのトータルに掛けているので、やんわりとした潰し具合を出すためにRatio4:1、アタックは34msecくらい、リリースは55msecと少し短めにしました。ドラムの音色を個別に弄る場合はまたスネア、バスドラ、金物でこの辺りの数値を変えますが、ドラムトータルにコンプをかける場合、やりすぎるとノリが不自然になる気がします。

ただ、その不自然さを意図した演出であれば逆に効果的になります。今回は、気持ち一体感を出す程度なのでこのくらいで。

 

ドラム・EQ2

コンプ後のEQでは、

  • ベースで削った50Hz以下を敢えてドラムでブーストして強調
  • 250Hz、650Hz付近を弱ブーストして、ドラムの音を少し強調

という意図で処理しています。

250Hzは音が濁りやすいポイントで、ここを削ると音の抜けが良くなり、ブーストすると音が詰まり、すっきりしないような感じになります。

難しいのが、ここをEQでざっくり行っていいケースとそうでないケースがある。ドラムのトータルのような全体に影響のあるトラックでEQでここをざっくり削ると、全体の曲が痩せ細る感じが出てしまうので、コンプなどを挟んだりしているわけです。

今回は、ドラムを少し濁らせたかったので若干ブーストさせています。

 

・出来たドラムの音

ドラムトータルで聴いて、少し音が太くなったと思います。

最近よく思うのが、単体で聞くとあまり効果がわからない音の処理でも、全体で聞くと案外違いがわかるようになるということ。なので、曲内の音数が多い場合、単体で聞いてあまり違いがわからないくらいで私は良いと思います。

それが段々積み重なって違いが出ているように私は思います。

 

ピアノのEQ例

ドラムとベースに低音を任せて、ピアノはアップライトに仕上げてみます。Before・Afterを同時に載せます。

・ピアノ素の音

 

・出来たピアノの音

 

単体で聞くと、ピアノが少し後ろに引っ込んだような、控えめになったと思います。

インサートしたプラグインは「EQ1ーComp-EQ2」の順番でもう統一しちゃいました。

 

ピアノ・EQ1

今回、私がコンプ前に形作ったEQの処理は、

  • 150Hz以下をばっさりカット
  • ドラムと重ねてみて少しうるさめに感じた350Hz、550Hzをピンポイントでカット
  • 音色が全体的に少なめなので、2.4kHzから上をやんわりブースト

低域をバサッと削っていて、アップライトさが浮き彫りになったため、私が感じた350、550Hzの若干耳障りなところを探って削っています。

 

ピアノ・コンプ

中低域の少し飛び出した部分をほんとに薄く潰しました。アタックはドラムと同じにして、リリースは180msecと長め。このサンプルではピアノを叩いてノリを出しているのですが、素のままだとそのノリが少ししつこい感じがしたので、リリース長めにとって若干の緩和をはかっています。

 

ピアノ・EQ2

コンプ後のピアノの周波数帯。こういうハイとローががっつりない音になると、残りの中域の操作が結構キモになります。新たに耳障りに感じた430Hz、650Hz辺りを削り、更に安定の2.5kHz削りを掛けて、もう大分引っ込める感じにしてみました。

上手い人はあまり無駄な操作をしないのですが、私はまだ試行錯誤が足りてない気がするので、こうしてピンポイントカットをちょいちょいしてしまいますね~(笑

 

EQ処理終了・聴き比べてみよう

さあお待ちかね、処理前と後を聞き比べてみましょう。何気にミキシングなどの処理はこういうBefore/Afterが楽しみな私がいます(笑

・素の音

 

・処理後の音

 

素の音のボワァっとした感じが処理後に上手く無くせて、スッキリさせられたんじゃないかな~と思います。EQとコンプしか使ってないのでこれだけだと全体的に物足りなく感じますが、これにディレイやリバーブが加わってくるとなると、更に素の音とは違った印象になるのは想像がつくのではないかなと。

 

終わりに

というわけで、簡単なEQ使用例でした。今回のポイントとしては

  • EQでブーストする場合は、Q(幅)を基本広めに。
  • EQでカットする場合は、Q(幅)を基本狭めに。

EQ処理はあくまで音を周波数特性から変形させていく、そういうアプローチなので、

  • 原音の自然さを大事にしたい場合、少し変化を加えるくらいがいい
  • 200Hz付近の低音を削りたい場合はコンプを織り交ぜてEQはコンパクトに

すると良いかと思います。

 

今回の記事、ちょっと見づらいかもしれませんね。記事の書き方を上手くしていかないとなぁ。

 

それでは!

 

DTM音楽業界のプラグインなどがたまに格安や無料になるワケ【考察】

こんにちは、MAKOOTOです。

前回、DTM総合音源「Xpand!2」が無料キャンペーンやってた!という記事を書いて思い出しました。

なんかこの業界って、プラグインを格安で販売する比率多くない?

と。

 

これに関して最近みた記事では、現代の音楽フリーランサー最前線のこおろぎさんちの、

老舗プラグインメーカー『Waves』がなぜセールばかりなのか教えます

が面白くてオススメなのですが、ちょいと自分なりに思ったことは自分でまとめてみようかなと思いまして。そういうわけで書いてみました。

 

DTM音楽業界のプラグインなどの格安・無料のワケ

顧客を獲得したい

まぁぶっちゃけ「顧客の獲得」。これが一番じゃないかなとは思います(笑

自分が経営者側として考えるなら、まず自分の商品をアプローチ出来るお客さんがいないと話にならないわけです。いいものも使ってもらえなければ意味がない。というか、認識されて始めて存在する、という人間社会なので、まずは知ってもらう。

とある老舗のお店では、火事になった際に何を持ち出したかというと、顧客名簿だったという話を聞いたことがあります。それくらい、お客さんリストというのは大事なんですね。

 

見出しのニュースとして使いやすい

これはこおろぎさんの記事にも書いてありましたが、例えば、とあるお店に入っている時に、

「只今○○の商品、半額となっております!」

とアナウンスが流れたとします。

そうしたら、大抵はふーんと聞き流すはずなのですが、脳内では一瞬でも「何が半額なんだ?」と判断しちゃうんですよね、意識するしないに関わらず(笑)。で、それが自分の欲しいものであったら、少なからずそれを探したくなるじゃないですか。欲しいものが何かしらあるからお店に来ているわけで。

「人間、今何が起きているか」を常に知ろうという本能というかそれに近いものが備わっているため、ニュースというのは本能的に情報を得ようとする人間の核を付いた行為になるわけで、正直これはなかなか上手いやり方なんです。皆当り前にやってますが。

まずは自分の話を聞いてもらうことが大事。ニュースというのは、その足がかりとして非常に有効であるということが言えます。

 

在庫がデータ上でのモノなので、リリース価格の変動が容易

これはどういうことかというと、目の前にある実物、つまりハードウェアですね。人間やはり実際に手で触れられるもの、物としてきちんと存在しているものの方を現代では基本優先させます。

これはまだインターネット社会というものが普及して年数も浅く、すでに飽和してしまった部分もあればまだまだ未開の地に思えるという認識が大きいということで、目に見えないものに対する金銭価値の置き方が未だ不安定なままである、ということが言えると思います。

また、こういうプラグインの販売はデータ上でのやりとりが主なため、例えばクレジットカード払いも、お金の動きとしてはどこか実感が遠いものとして理由の一つにあると思いますね。

 

開発費さえ回収できれば在庫は無限

在庫管理について考える必要がないのも、リリースが容易である強みの一つでしょう。初めに価値を与え、それをセールということで相対的に「今だけ安い」状態を作り出す。普段手の届かないものが目の前に下りてきたら、知らないことに対する興味、知ろうとする本能が購買意欲を後押しする。赤ちゃんがたまに知らない人の顔をじーーーっと見ているのと似てる気がする。

実際に、例えば服やCDなど、モノを抱えるというのは結構管理や維持費がかかりますし、それを運ぶのもなかなか労力がいるわけです。昔のドラえもん映画みたいに、未来から時空を超えて一瞬で小包が届くとかは今の文明にはないので(笑

そういう意味で、開発費さえ回収したらあとは在庫が無限。しかもデータ転送も、筋肉を使って「どっこいしょー」的なことは一切不要。指を少し動かす程度で事足りる。となれば、それだけ時間と手間が大幅に余るわけで、当然、大きく融通の利く商品といえます。

 

ブラックフライデーというものが存在する

日本では、ハロウィン同様最近馴染みが出てきたイベントかと思います。

ブラックフライデー(英語: Black Friday)とは、小売店などで大規模な安売りが実施される11月の第4金曜日のことである。(中略)ブラックフライデーには買い物客が殺到して小売店が繁盛することで知られ、特にアメリカの小売業界では1年で最も売り上げを見込める日とされている。

日本語では黒字の金曜日とも訳される。

出典:Wikipedia「ブラックフライデー」より

Wikiでは、

「1975年にはかなり広まった比較的新しい言葉」

とあり、アメリカ産のイベントであるため、日本国内では最近まで「何それ?」って感じだったかもしれませんが、プラグインを作るメーカーのほとんどはこの海外。こういう特売は国内より海外の方が日常的ということも、この格安セールの一つの理由ではないかと思います。

 

普通は、突発的に「70%OFF!」とか聞いたら、賞味期限が近いか、季節や旬が過ぎたとか、何かしらマイナス方向にワケありと考えるのが普通なのですが、デジタルプラグインに関してはそういった古い新しいという概念は通用し難い。

なぜかというと、容易にアップデートが出来るから。むしろ新しくしすぎて逆に古いアレの方がよかった!とかが増えてきやすい傾向があります(笑

ハードは基本、完成後が一番強度が高く、あとは時間とともに劣化していくのが常(ヴィンテージという考えは今回除く)ですが、ソフトやデジタルにそういった劣化は存在しません。人間の利便性や感性が上がってくれば相対的に劣化したことになりますが、それは人間社会全体の成長によるものなので、そう簡単に上がるわけでもない。

 

・・・ちょっと脱線しましたが、少なくともDTM音楽業界では格安はマイナス方向にワケありということとは繋がりにくいと思っています。

 

デジタルデータの弱点を逆手にとっている

開発費さえ回収すれば在庫も無限だし、良いこと尽くめな気もしますが、もちろん弱点もあります。それは、

データのため、コピーが容易なこと

海賊版ってやつですね。値段が高すぎると一部の人にしか扱えず、それはずるい!ということで、穴を見つけられて水面下に広がっていく。この場合、表沙汰にするとアウトということになって、水面下でいくら知名度があっても、認知が表に出て来れない状態なため、売上が伸びない。

製品だけもってかれて、顧客になってもらえなければ、そのお店はまぁ、潰れますよね(笑

 

それをされるくらいなら、いっそ先に正当なルートから広く知ってもらう、使ってもらう。その方がメリットが大きいということで、最近は色んな高品質なプラグインが軒並み安く出来るならそうしている印象があります。市場の開発レベル全体が上がってきたというのもあるでしょうが。

 

まとめ

というわけで、無料で使うのは何かしら抵抗があったり、何かあるのではないか?と思って手を出し辛かったりするのは当然で、実際その分のデメリットというのは大抵存在します。

最近ではサブスクリプション方式といって、

ソフトウェアの利用形態のひとつ。ソフトウェアを買い取るのではなく、ソフトを借りて、利用した期間に応じて料金を支払う方式。サブスクリプション(subscription)には本来、「予約購読」や「予約金」といった意味がある。

出典:NTTPC用語解説辞典「サブスクリプション方式」より

という、携帯の月額制のような形をとっているから、一見本体製品が安くなっているというのもあります。

ですので、一概には言えませんが、少なくとも安くする理由として「まず知ってもらう」ということでセールを掛けているケースが多いと私は踏んでいます。

そのセール品が「買い切りか、サブスクリプションか」は、その製品がどういう方式で売り出されているかを自分でしっかり調べる必要はありますが、安く売り出す企業側にはそういったメリットがしっかりあってやっていることなので、あんまり不必要に心配することはない、ということですね。

 

私の独断と偏見でした。

それではー

 

Air Music Technologyのマルチ音源「Xpand!2」が無料!【購入までの流れ】

こんにちは、MAKOOTOです。

2,000以上の音色が入っている、pro tools にも付属の総合音源「Xpand!2」が、Don’t Crac[k]というオーディオプラグイン専用のオンラインストアから、現在無償で提供されているようです。

いつもDTM関連のニュースでお世話になっているICONさんからの情報ですが、確かにこれはお買い得というか、お買い得(何

私が去年の夏頃、Cubaseに付属している「HArion Sonic SE」だけだとマルチ音源としてはちょっと物足りない、手始めにもう一個幅広く使える音源ないかな~と思っていた時に、ちょうど99%OFFをやっていたのがこの「Xpand!2」でした。

今回は、現在$69.99のところを、クーポンコードとして『 XpandFreebie 』と入力すると$0。つまり無料で手に入る

いつまでこのキャンペーンがやっているかは明記されてないのですが、自分の製作ジャンルを広げてみたい場合や、作曲したいけど何の音源を使えばいいかわからない場合などは、ひとまずこれを手に入れて使ってみるといいのではないかなと思います。

以下では、あまり海外での買い物をされたことがない方向けに購入の流れを書いてみました。

※注 Xpand!2を使うにはiLok認証のUSBを別途購入する必要があります。

買わなくてもアクティベート出来ました。大変失礼致しました。

 

Xpand!2購入までの流れ

私は去年の99%OFFの時に購入していたのですが、0円ということで試しにここでも買ってみることにしました。

まずDon’t Crac[k]サイトのXpand!2のページに行きます → Don’t Crac[k]

 

真ん中に『XpandFreebie』と太字で書いてあります。上の赤字では、チェックアウト時に「このクーポンコードを入れるとフリーで使えますよ!」ということが書いてある。

 

 

そのページの下にスクロールして行くと、その音源を使用するプラットフォーム選択欄があります。Windowsで使うのか、Macで使うのかということですね。Windowsの場合はVSTを選びます。そしてAdd to Cartに行きます。

 

この時点で$69.99になってますが、まだ気にしなくても大丈夫。「チェックアウト」をクリックします。

 

Don’t Crac[k]サイトでのアカウントを持っていない場合、新規アカウントが必要になるので、チェックアウトボタンクリック後、真ん中左の画面からアカウントを新規作成し、上の画面のように入力して、「Continue」。

念の為、Your Addressについての補足を書いておきます。

  • Streer Address:市よりあとの番地など
  • ZIP Code:郵便番号
  • City:市区町村のこと
  • State/Province:都道府県のこと

入力が問題なければ、おっけー!的な画面が出ますので、「Continue」をクリック。

 

チェックアウト画面。ここで、真ん中辺りの Discount Coupons にクーポンコード『 XpandFreebie 』を入力して、Redeemをクリック。すると、Total:$0.00となって、無料ということになります。そして「Continue」をクリック。

 

$0.00なので、このまま Finishied! されました。Eメールでシリアルとダウンロードについて送りました的なことが書かれてあります。

 

私の場合、なぜか「失敗してます」的なことがメールに書かれて来たのですが、通常ではこの送られてきたメールに、シリアルとダウンロードまでの流れが書いてあると思います。

 

Don’t Crac[k]のサイトでも、注文した内容とシリアル・ダウンロードについて見ることができるので、

Store → My Account → My Serials and Downloads

から確認してみてください。

 

うん、エラー出ちゃってますね。なぜだろうか私の場合このような赤字エラー文が出ておりました。これ以上の確認が出来ないのでひとまず様子見します(笑

 

※追記 改めてダウンロードとオーサライズの流れのメールが届いていました

私はすでにiLokにてオーサライズ済みだったので、それがエラーだった・・・?のではないとは思いますが、改めて本来のメール内容が届いていたので大丈夫でしょう!

仮に「何かあったら連絡下さい」的なこと書かれてあったので、それも踏まえて問題はないかと。

要約すると、

  1. iLokアカウントが必要なので、ライセンスマネージャーをダウンロードすること
  2. Air Music Website から、トライアルバージョンをインストールすること
  3. 製品版登録として、シリアルコード画面が出てくるので認証させること
  4. ライセンスが認証されると、DAWで使えるようになる
  5. ここから最新版をアップデートしてください

・・・ということですね。

 

おわりに

最初のエラーの原因はこちらのせいではなかったのかな…?ちとよくわかりませんが、改めてインストールと認証の案内メールが来ていたので問題なさそうです。

ミッション完了。

その後のオーサライズ等のやり方はメールの通りで大丈夫かと思いますが、一応アクティベート内容を書かれている記事を見つけたので、おまけにご紹介。

Xpand!2を、ダウンロードしてみた!②iLokアクティベートまで

 

この音源は買い切りなので興味があれば是非試してみても良いかと思いますが、使うにはiLok認証のUSBが必要です。色々な音源を使う場合、結構iLok認証が必要なものもあるので、これを機に買ってしまうというのも一つの手かもしれません。持ってない方にとっては、Xpand!2は無料だけど、iLokで6000円くらい掛かってしまう。

最悪iLokは保留にしてXpand!2だけとりあえず持っておく、というのもアリかなぁと(笑

 

※追記

すいません、調べていなかったわけではないのですが、iLokキーが無くともアクティベート出来るようです。Sleepfreaksさんの記事で詳しく書かれておりました。アクティベート方法はこちら

大変失礼致しました。以後、記事を書くときはよく調べてから書かなくては・・・。

 

[speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]いい教訓になったかね?[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu4.jpg” name=”シブ君”]以後気をつけるように[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii4.jpg” name=”ルイー”]はい、すいません[/speech_bubble]

 

それでは、今回はこの辺で。

 

【EQ・Lv2】EQを使ってキーンという音の共鳴ポイントを見つける方法

ミキシングをしている時に、色んな音がぶつかり合って、

キーン・・・

という音が小さく出てくることがあると思います。単音で聞いてる分には問題ないのに、音が重なり合うとなぜか聞こえてくる…。

 

今回は、このキーンという音を、

EQを使って音のピークポイントを探ると同時に、キーンを防ぐ方法をご紹介します。

やり方は簡単です。

 

音が重なり合って出る、キーンという音

これは音と音が重なり合うことで特定の周波数帯が共鳴してしまい、それが増幅された形で音になって出てきているものと思われます。

共鳴(きょうめい、英: resonance)とは、物理的な系がある特定の周期で働きかけを受けた場合に、その系がある特徴的な振る舞いを見せる現象をいう。

物理現象としての共鳴・共振は、主に resonance の訳語であり、物理学では「共鳴」、電気を始め工学的分野では「共振」ということが多い。

出典:Wikipedia「共鳴」より

DTMで説明すると、二つの別々の音があったとして、それがどこかの周波数帯のみ同じ響きを持っていた。その同じ響きの部分が重なり合って、キーンと聞こえてしまう

簡単に説明するとこういうことになります。

 

音叉による共鳴


ちょっとでも周波数がずれていると、共鳴しない。

このことからもわかるように、共鳴でキーンという音が出てしまう場合、片方のその共鳴している音の周波数を変えてやれば、共鳴が起こらなくなる。つまり、

キーンという音がしなくなる。

というわけですね。

ちなみに今回のケースでは、スピーカーから出た音をマイクで拾って、その音をまたスピーカーで出してまたマイクで拾う・・・という、いわゆるハウリングでのキーンではないパターンでお話ししています。

 

EQを使って共鳴している部分を探す

「共鳴は周波数を変えてやれば起こらなくなる。」

色んなやり方で音の周波数を変えることは出来ると思いますが、ここでは

EQ(イコライザー)を使って、共鳴している周波数部分を削ってしまう

という一番簡単なやり方をお伝えします。

 

まず、マスタートラックにリミッターを入れておきます。これを入れておかないと、音をブーストした時に耳や機材を傷めてしまう恐れがあるためです。

 

そしてEQを共鳴してそうなトラックにインサートし、Qを最大まで狭めて思いっきりブーストさせます。

 

 

Qの周波数帯を左右に振って、キーンがあからさまに強くなっているポイントを探します。

 

・サンプル音源

こうやってうねうねさせて、耳障りな箇所を探るわけですね。

 

そして、一番キーンがうるさいポイントのゲインを、原音をあまり変化させないようキーンが無くなるまで下げてやる。こうすることで、共鳴を防ぐことができます

 

ただし、一発で共鳴が見つからない場合や、下げてもキーンが収まらない。そういう場合は、

最初のポイント周辺を探して、原音に影響が出ない範囲で削ったり、もう片方の共鳴の原因であるトラックでも、同様にEQでキーンの原因になりそうなポイントを探って削ったりします。

こうすることで、倍音による音の重なりが軽減されてキーンの発生がなくなったりします。

 

まとめ

このEQを針のように尖らせてピークポイントを探る方法はDTMやミキシングにおいて定番のやり方なので、まだご存じない方はこれを機に覚えてしまいましょう。

ちなみに、記事上の方の動画でも分かる通り、異なる周波数であれば共鳴は起きないということなので、このEQで周波数を削って共鳴を防ぐ方法は、

あくまで共鳴の効果を小さくしているにすぎない

ということを踏まえておきましょう。

周波数を変えている訳ではなくて、削って小さくしているだけですから。

 

共鳴を防ぐ一番良い方法は、音を差し替えること

差し替えたくない場合、EQで共鳴ポイントを削ると。そういうわけですね。

 

 

それでは今回はこの辺で!

 

【EQ・Lv1】DTMにおけるイコライザーの基礎を知っておこう

こんにちは、MAKOOTOです。

今回は、イコライザー(Equalizer、以下EQ)について触れていきたいと思います。
DTMで楽曲を作っていく上で、私の使用頻度の多さベスト3のエフェクトが、

  1. ディレイ・リバーブ
  2. コンプレッサー
  3. イコライザー

なわけですが、その3つ目がこのEQです。
市販のミキシング本などでも、この上記のエフェクトはほぼ必ず出てきますし、
むしろ重要なメインエフェクトとして書かれていることがほとんどです。

 

ちなみに、ディレイとリバーブは一応別個のエフェクトとしてそれぞれ役割があるのですが、
ざっくり書きますと、

「ディレイを超細かくしていったものがリバーブ」

ということになるので、空間系としてひと括りされることが多いです。

 

 

私がDTMを始めてCubaseに触れ始めた頃は、
とかく色んなエフェクトをよく理解もせずに無駄に使いまくっていたので、

なんといいますか、音作りはヘタクソでした。

今も別に、上手いか?と問われても正直そんなに上手いとは思ってません。

対して、使い方のすんげー上手い人間はたくさんいます
何を食ったらそんな曲作れるんだ!?みたいな。(笑

 

自分が発展途上であることには変わりありません。

このブログでは、そんな自分の基礎知識をがっしり整地することと、
それを書いていって誰かの役に少しでも立つならそれで十分だろうという
強いのか弱いのかよくわからない心意気のもと、書いてます。

 

それでは、EQについて見ていきましょう。

EQって一体なんなんでしょうね?

 

 

イコライザーとは

 

音響機器のイコライザー (Equalizer) とは、音声信号の周波数特性を変更する音響機器である。イコライザーを使って、音声信号の特定の周波数帯域 (倍音成分や高調波成分あるいはノイズ成分)を強調したり、逆に減少させる事ができ、全体的な音質の補正(平均化)や改善(音像の明確化など)、あるいは積極的な音作りに使用される。

単語本来の意味は「均一化(equalize)するもの」で、(中略)現在では、周波数特性の均一化だけでなく、より積極的な音作りにも活用されている。

出典:Wikipedia イコライザー(音響機器)より

 

要は「音」というものを周波数という側面から捉えて、音質を補正していくものというわけですね。

「均一化」という意味からも、音の調整をしていくということが伺える。

 

また、「音作りにも活用されている」とある通り、

実際に周波数を弄っていくと、耳でわかりやすく音色が変化していきます。

コンプが音の質感なら、EQは音の色に変化をつけられる。

表現的には、明るくするとか、暗い感じとかでも言いますね。

 

 

人間の可聴域は大体、20~20,000Hzほど(個体差あり)なので、

EQはこの範囲内で可変させます。

 

 

 

低域・中域・高域を周波数で言うとどのくらい?

 

音楽をやっていると、一度はこの疑問が出てくるとは思うのですが、

これに関して、明確な定義は無いそうです。

つまり、定義がないということは人や分野によって結構違うということ。

 

ただ、私が音楽やってる人同士で話し合うときは、

  • 低域:50~500Hzくらい(ベースやバスドラなど)
  • 中域:500~5,000Hzくらい(色んな楽器)
  • 高域:5,000~20,000Hzくらい(金物とか)

くらいなのかなぁ。全然しっくりきませんが。(笑

 

というよりは、周波数帯で分けるよりも楽器で分けて考えるのが私の周りでは主流なので、

あんまりここからここまで!みたいな線引きはしないですね。

500~5,000Hzなんて、中高域っていう人もいるだろうし。

 

ちなみに、20Hz以下は超低域、20,000Hz以上は超高域と言われるみたいです。

耳では聞こえないけど、身体でその振動自体はキャッチするようなので、

作品によってはその帯域を楽曲に取り入れているものもちょいちょい見ます。

 

 

 

EQの種類

 

EQはタイプとしては、シェルビングタイプとピーキングタイプの2種類があります。

ブーストすると音量は増え、カットするとその分音量は減ります。

 

 

1、シェルビング・タイプ

特定の周波数より、上もしくは下を、ブーストもしくはカットします。

シェルビング

上の図だと、100Hz以下をカットして、3kHz辺りからブーストしています。

ここより上、ここより下をザーッと上げたり、削ったりする時はシェルビングを使います。

ローパス、ハイパスと少し似ていますが、シェルビングの場合なだらかな線を描くので、

あくまでも「緩やかに」ブースト・カットするという感じです。

 

 

ローパス・ハイパスはこんな感じ。

ローパスハイパス

「これより上、下の帯域はもういらないよ」というバッサリいきたい時はこちらを選びます。

例として、ドラムのハイハットやシンバルなどは、がっつりハイパスを掛けるのが定番ですね。

 

 

2、ピーキング・タイプ

特定の周波数部分のみをブースト・カットするタイプです。

ピーキングには更に2タイプあります。

 

パラメトリックEQ

ピーキング

帯域ごとにピンポイントで置けるので、

  • 「この帯域だけ上げて音に厚みをつけたい」
  • 一点だけうるさく聞こえる部分をなんとかしたい」

という時にはもってこいで、とても細かい調整ができます。

 

また、パラメトリックEQには、

「Q」と呼ばれる、ブースト・カットする帯域の広さを調整するパラメータがあります。

Q

Qを広くとってやればその周辺までを、

Qを狭くすればピンポイントで、ブースト・カットできます。

 

 

グラフィックEQ

グラフィック

これはQと周波数が予め固定で用意されているタイプです。

 

細かい微調整を行いたいときはパラメトリックEQが向いていますが、

こちらの場合、既に用意されているので、

多少はアバウトながらすぐにつまみを動かして音の変化を確認することができます。

 

大きく滑らかな波を作るような周波数に整えたい時はむしろこちらの方が向いているかと。

 

 

まとめ

EQ(イコライザー)とは

  • 音を周波数の面から、調整または音作り出来るエフェクト
  • シェルビング・ピーキングの2種類
  • ピーキングには、パラメトリックEQ・グラフィックEQの2パターン
  • ハイパス・ローパスフィルターもEQの一種

 

という感じですね。

多分、コンプよりはわかりやすく使えるエフェクトなのではないかと。

 

次回のEQ編は、簡単なその使い方を見ていきたいと思います。

 

 

それでは!

 

【コンプ・Lv4】コンプのアウトプット・ゲインリダクション・ニーの意味

こんにちは、MAKOOTOです。

 

今回は、コンプレッサーのパラメータである、

  • アウトプット(OutPut Gain)
  • ゲインリダクション(Gain Reduction)
  • ニー(Knee)

について見ていきます。

 

いやー、コンプは奥が深い。あと何気にこんがらがる(笑

一つのエフェクトでこんなに音作りが多彩なものって、他にないんじゃないかな。

 

EQもやろうと思えばえらい細かく設定して音をかなり可変させられますが、

やりすぎると、何かこう、「大丈夫なのか!?」って感じになる時があります。

EQの奥深さはコンプとはまた別だからなぁ・・・。

 

 

 

さて、コンプの話でした。

前回に引き続き、まずはアウトプット項目から見ていきましょう。

 

 

アウトプットゲイン(Output Gain)とは

 

コンプで圧縮された後の全体音量を調整します。

メイクアップゲイン(Make-Up Gain)と表現されることもあります。

 

サンプルを用意してみます。

まずは、コンプを掛ける前のスネアの素の音。

 

次に、コンプを掛けたあとのスネアの音です。ゲインはまだ上げていません。

 

 

後者の方が音がずっと小さいことがわかります。

コンプの設定内容はこちら。

コンプのゲイン

スレッショルドはかなり深め、レシオも8:1、アタックタイム0.1msecということで、

インプット(原音)に比べて、アウトプットの音はがっつりと潰されているので、

結果的に、音量が凄く小さくなりました。

 

コンプレッサーを掛けるということは、音を潰すことになるので、

結果的に音量がその分下がります

音量自体は下がるんだけど、音のインパクトは潰れた分だけ強くなる。

潰した分、音量に余裕が出来るので、それを原音レベルまで持ち上げれば、

原音と音量は変わらないのに、以前よりインパクトの強い音が出来上がる

また、音の粒が揃うので、トータルの音圧を稼ぐことが出来る

メイクアップゲインで音圧を上げる

こういう仕組みになっています。

 

以下のサンプルは、先程の後者のゲインを原音と同じくらいまで引き上げた音。

 

ゲインを上げた後

がっつり潰していたので、その分がっつりゲインを上げることになりました

お陰で、スネアの余韻が思いっきり持ち上がって、シャーンという音が大きくなった。

これでスネア自体の迫力は段違いのものとなっています。

 

 

このように、コンプの使い方の一つとして、全体の音圧をかなり稼ぐことができます。

ただし、これには同時に失われるものがあります。

それは一体何でしょうか・・・。

 

 

音圧と引き換えの「ダイナミクスレンジの消失」

 

音の大小の抑揚の差の事を「ダイナミクスレンジ」と呼ぶのですが、

コンプを使うことで相対的にこの、音自体の抑揚が無くなってしまう

という弊害が生まれます。

全体がのっぺりした感じになり、リズム感が失われてしまうのです。

 

現在の人間の耳と感覚は、

「音量(音圧)が大きい音を良い音だと捉えてしまう」

傾向があることがわかっています。

 

どちらが良い、という話はここでは割愛しますが、

ひとまず、コンプを使うことで失われる要素もあるのだ、

ということだけは覚えておきましょう。

 

楽曲内でコンプの役割を理解し、それを効果的に使うことが本来の目的です

 

 

ゲインリダクション(Gain Reduction)とは

 

音が入力されて、効いていますよー、という目安のメーターのことを言います。

 

ゲインリダクション

赤枠の部分がそうです。

この図だとがっつりかかっているので、メーターが下に触れそうなくらい(笑)ですが、

これによってどのくらいエフェクトが掛かっているかが目視できます。

 

ゲインリダクションTR

こういうタイプのメーターの方がわかりやすいかもしれません。

 

注意してほしいのは、このメーターが触れていない場合、コンプが機能していない

という意味でもあるので、その場合は、入力信号つまりインプットの音を大きくして、

ゲインリダクションが触れるのを確認してください。

 

 

ニー(Knee)とは

 

圧縮される掛かり具合を柔らかくするかどうかというもの。

 

ニーを効かせる場合、圧縮の掛かり具合が緩やかになるので、

音が少し柔らかくなる、といった特徴があります。

ソフトニー

通常のコンプレッサーの基本概念は、

スレッショルドを越えた直後からレシオで設定した通りの圧縮比率となります。

例えば、「8:1」の場合は圧縮率が8倍になるので、

音によってはどうしても極端な音に聞こえてしまうケースが出てくる。

実際はアタックタイムがあるため、そこまできついというわけでもないのですが、

それでもやはり不自然さが出てしまう場合がある。

 

そんな不自然さを緩和させるための措置が、ソフトニーということです。

ただしこのソフトニー、圧縮がスレッショルドレベルの少し前から掛かるので、

緩やかには掛かるけど、反面歪みが大きくなってしまう場合もあるので、ここは注意点。

 

 

CubaseのKnee

CubaseのCompressorではレシオの下のボタンがそれにあたります。

効かせていれば「Soft Knee」。効かせていなければ「Hard Knee」。

 

私は最初、「違和感が出てくるなら、全部ソフトにしたほうがいいじゃん!」

と思っていましたが、逆に音を潰して尖った音や、

アタックが強調される音を作る意味合いを知るようになって、

状況によって使い分けることが必要なのだとわかりました。

 

ちなみに、ソフトニーをかけると、確かに音は少し柔らかい感じになるのですが、

スレッショルドの少し下から圧縮が掛かるためか、

設定よりも若干深めにコンプが掛かる形になります。

 

 

・・・さて、これでコンプの基本パラメータの解説は以上になりますが、

折角なので補足として、Cubase付属のCompressorにあと二つある、

「Hold」「Analysis」というパラメータについても見ていきたいと思います。

 

 

 

Hold(Cubaseのコンプ付属)とは

 

ホールド

音の入力信号が、スレッショルドを越えてアタックタイムに到達した後、

そこからレシオの比率をそのまま、どのくらい持続させるのか、といったパラメータです。

数値は「0~5000msec」まで。結構持続させられます。

 

通常は入力信号がスレッショルドを下回って、

初めてリリースタイムによって徐々に圧縮が解除されていくわけですが、

このホールドは、リリースタイムに到達するまでの間の「圧縮率100%の時間」

この長さを強制的に伸ばすパラメータの模様。

 

 

ちょっと音で聞いてみましょう。コンプの設定は上図の通り。

 

ホールド250

音が一旦小さくなり、そのあとで少し膨らむように大きくなって、また減衰しています。

 

 

ここで、「Hold=0」にしてみると、

 

ホールド0

通常のコンプの掛かり具合となり、原音通り、音が次第に小さくなっていっています。

上図では、コンプの設定もあって、赤枠の左の部分が圧縮されて少し小さく抑えられ、

そこからすぐ音が滑らかに原音に戻っています。

聞いた感じでは、一瞬音が小さくなったような印象はあまり受けないかと思います。

 

 

もう一度、今度はわかりやすく「Hold=250」のままにして、

「Release=10(最小)」にしてみます。

 

ホールド250、Release10

リリースを短くしたので、コンプ解除後に急に原音に戻った感があり、

音の膨らみがより顕著になりました。

上の赤丸ではレシオ8:1が持続されていることになります。

 

 

このHold、数値で把握しようとすると、ちょっとわかりづらい部分がありますね。

でも、Holdを足すことで音が再度膨らむような音作りが出来ることがわかりました。

これだけ顕著なら、ディレイとは違った意味合いの音が表現できそうです。

 

 

 

Analysisとは

 

入力信号の解析を、ピークで測るのか、RMSの平均値で測るのか、ということ。

ピークとは、一音一音入力された瞬間的な音ごとに解析していくのかという意味合いで、

RMSというのは、ざっくりいえば全体の音の平均値から解析するのか、ということです。

 

アナリシス

0であれば完全ピーク依存100であれば完全RMS依存

 

Cubaseのヘルプでは、RMSモードが向いているのは、

音の入力信号のダイナミクスレンジが小さい(抑揚のあまりない)場合。

対してピークモードは、打楽器系など音の大小差が激しい場合に向いているとのこと。

 

このRMS。細かい説明は省きますが、

聴感的な平均音量をある程度測定できるものとしての目安とされています。

ですが、この考え方は少し古く、今では、

ラウドネス数値というものが、人間の聴感をより正確に数値化するパラメータ

として使われてきています。

 

 

AnalysisをRMSモードにして解析した場合、

細かな一瞬のピークを見落とすことも想定の上で使用する必要があります。

 

うーん、ソフトの処理的にはRMSの方が楽なのかもしれないけど、

自分が細かな調整をしたい場合は、ピークモードの方が向いているんだろうなぁ。

 

 

一応簡単な実験結果を載せてみます。

ギター設定

設定は上記の通りで、Analysisの所だけ変えていきます。

HALionで適当に選んだギター音と適当な打ち込みなので、正直音は微妙ですすいません。

 

・単なるベタ打ちギターサンプル・素の音

 

・単なるベタ打ちギターサンプル・完全ピークモード(Analysis=0)

 

・単なるベタ打ちギターサンプル・完全RMSモード(Analysis=100)

 

 

わかりにくいので、上から順にGIFアニメにしてみました。

アナリシスギターさんぷる

 

 

 

もう一つ、同様にドラムサンプル。設定は以下の通り。

どらむ設定

ドラムパターン全体にかける仕様にしています。

 

・簡単なドラムサンプル・素の音

 

・簡単なドラムサンプル・ピークモード(Analysis=0)

 

・簡単なドラムサンプル・RMSモード(Analysis=100)

 

ドラムサンプルの比較GIFアニメ

アナリシスドラムサンプル

 

 

うーん。

この二つのサンプル、あまりわかりやすいとはいえませんが、

ピークモードに比べ、RMSモードの方がやはりコンプの掛かり具合が緩めですが、

ピークモードよりもトータルのダイナミクスレンジは取れてるようには見えます。

 

掛かりがきついのはピークモードの方ですね。

純粋に音を固めたり、トータルの音圧を上げたい場合はこっちかな。

 

実験材料が2点しかないので結論付けるとまではいきませんが、

一応、ご参考までに。

 

 

まとめ

  • 「アウトプットゲイン」=コンプで圧縮された後の全体音量を調整する
  • 「ゲインリダクション」=コンプが効いている目安となるメーター
  • 「ニー」=圧縮を掛け方を自然(柔らかめ)にするか
  • 「ホールド(Cubase/Comp)」=アタックとリリースの間で、圧縮を持続させる長さ
  • 「Analysis(Cubase/Comp)」=ピークモード/RMSモードでの音の信号解析の選択

 

そして、

コンプを使うことで音のばらつきを無くし、ピークを抑えた分だけ音圧を稼げる。

ただしその分、ダイナミクスレンジ(音の抑揚の差)は失われる。

 

 

というわけで、ひとまずコンプレッサーの基礎パラメータを見ていきました。

次回は、具体的なコンプの掛け方の例を取り上げて、その使い方をみていきたいと思います。

 

 

それでは!

 

【コンプ・Lv3】コンプの基礎パラメータ、レシオ・アタック・リリースとは

こんにちは、MAKOOTOです。

 

コンプレッサー、Lv3の記事となります。

三回目なのにまだ基礎パラメータのスレッショルドしかやっていません。

コンプは後々、音作りに必ず活きてくると思っているので、

多少時間をかけてでもしっかり見ていきたいと思います。

 

一度そこをしっかり作ってしまえばね、あとが楽なんですよ。

もう理解したよーという方はすっ飛ばして頂いて構わないような内容でもあるので、

その時は、人造人間17号みたいに「徒歩で行くから面白いんじゃないか」の言葉を無視して、

最長老様に力を引き出してもらったクリリンの如く、ドーーーンと先に行きましょう。

 

 

レシオ(Ratio)

 

レシオとは、圧縮比率のことをいいます。

スレッショルドを越えた音の信号分をどの程度圧縮するか、ということ。

コンプレシオ

例えば、レシオを「4:1」にすると、上の図でいえば、

スレッショルドレベル「-10dBFS」を越える音を1/4に圧縮する、

という意味です。

 

 

レシオ

図は極端ですが、わかりやすくするためにスレッショルドをかなり深めにしています。

大きく潰したいか、わずかに潰したいかはこのようにレシオで設定します。

 

レシオの基本の見方は「原音に対する圧縮倍率:原音(1とする)」の比率でみるので、

1:1」の場合、圧縮はされていないことになり、

2:1」の場合、圧縮後は1/2に。

10:1」の場合、圧縮後は原音の1/10です。

これは、スレッショルドを超えた音(信号)のみということ。

 

ちなみに、Cubase付属のCompressorのレシオの最大は「8:1」

「8:1」ともなると、かなりの圧縮比率ということにもなりますが、

厳密には完全なリミッターとしての働きには及びません。

 

対して、リミッターは「∞:1」という圧縮倍率がデフォルトとなっているので、

この数値設定の違いで、コンプとリミッターの役割を分けているものと思われます。

 

 

 

アタックタイム(Attack Time)

 

コンプアタック

レシオで設定した値まで、どのくらいの時間を掛けて到達させるか、ということ。

スレッショルドを越えた音は、このアタックタイムを過ぎてから段々と圧縮が始まり、

時間的にこの値を過ぎると、圧縮率はMAXになります。

 

CubaseのCompressorでは「0.1~100msec」まで。

コンプの種類によっては「μsec(マイクロセカンド)」単位で調節できるものもあります。

 

 

コンプアタックタイム

例えば、アタックタイム「100msec」にした場合、スレッショルドを越えた音は、

  • スレッショルドを越えてから数えて30msec」後は圧縮率30%。
  • 75msec」後は大体圧縮率75%。大分潰されてきます。
  • そして「100msec」に到達すると圧縮率100%やっとレシオで掛けた値通りに圧縮される。
  • 「100msec」以降は、原音がスレッショルドを下回るか、リリースタイムを越えない限りは、ずっと圧縮されっぱなしになる

ということになります。

 

私は当初ここを勘違いしていたのですが、

アタックタイムに到達してから始めてコンプが掛かるのではなく

アタックタイムに到達して始めて「レシオ通りの比率」に圧縮される

つまり、スレッショルドを越えた時点で圧縮は少しずつされている、ということ。

この間、音が完全に素通りしているわけではないのです。

 

ただ、アタックタイムの設定は基本msec単位で設定されるので、音で聞くと一瞬。

アタックを長くすると、それだけ圧縮MAXに到達するまで時間が掛かるため、

立ち上がり音はほぼ圧縮が掛かっておらず、あたかも音が素通りしているように聞こえる

 

そう聞こえるのですが、実際は微細ながら圧縮は掛かってますよーということです。

 

 

 

アタックタイムの役割

 

音の立ち上がりを強調する部分です。コンプの音作りの主軸

鳴り初めの聞き応えを調整するので、レシオとスレッショルドによって変わりますが、

第一印象、ファーストインプレッションの質感を整えられます。

 

レシオが高い状態でアタックタイムが短い場合、音の違いを聞き分けやすいです。

なぜなら、それだけすぐに高倍率の圧縮が掛かるから。

 

 

・「素の音」

 

素の音スネア

 

これに、スレッショルド-30[dBFS]、レシオ8:1、リリースタイムは70[msec]

として、アタックタイムのみ変化させてみます。ゲインは上げません。

 

 

・「アタックタイム:0.1msec」

 

アタック0.1msec

頭から思いっきり潰れているのがわかります。音が遠い。

0.1msec後に8倍の圧力が掛かっているので、最初からクライマックス状態。

努力マンの豆腐の下駄に比べたら遥かに及ばないものの、これぞまさに圧縮。

 

 

「アタックタイム:28msec」

 

アタック28msec

頭の部分はアタック感が残っていますが、すぐに音が圧縮されています。

パンッ!という音の印象で、いかにもコンプの音だなーという感じ。

これ、音の抜けは悪そうに感じますが案外存在感を残します。

 

 

「アタックタイム:100msec」

 

アタック10msec

圧縮100%までの時間が長いので、そんなに音が歪んだ印象はありません。

スネアの鳴りをしっかりと残し、すぐに余韻をぎゅっと締めている感じです。

リリースが70msecもあるので、そこまで締め付けは強くは無いですね。

 

 

リリースタイム(Release Time)

コンプリリース

原音がスレッショルドを下回ってから、コンプの圧縮を解除するまでにかかる時間

何気に、コンプの設定において最初は実感がわきにくいポイントなんじゃないかと思います。

 

Cubaseのコンプでは「10~1000msec」まで。アタックの10倍長めに設定できます。

「auto」というボタンがありますが、これは自動でリリースタイムを決めてくれるもの。

使い初めでよくわからない時は、これを有効化するのも手ではないかと思います。

 

コンプリリ-ス

 

リリースタイムは、

原音がスレッショルドを下回るポイントから、それが解除されるまでの長さ

ということ。

  • リリースタイムが短いと、すぐに圧縮が解除され、(画像では薄紫)
  • リリースタイムが長いと、圧縮が緩やかに解除されていく。(画像では水色)

 

私の絵が下手なので、図のリリースタイムの長い水色の曲線が緩やかに見えていませんが、

リリースタイムが長いほうが、原音への戻りは自然となります

 

 

リリースタイムの役割

 

主に音の余韻を強調する部分です。

リリースタイムを長めにとって余韻を抑えると、音は奥に引っ込んだようになり、

リリースタイムを短めにとると余韻がすぐに返ってくるので、音が前に出て来るようになります。

といっても、アタックタイム通過後の音の設定となるので、

余韻の作り方は、アタックタイム次第で結構変わってきます。

 

リリースタイムの違いを見てみます。

 

 

「素の音」

 

素の音スネア

 

これに、スレッショルド-30[dBFS]、レシオ8:1、アタックタイムは28[msec]

として、リリースタイムのみ変化させてみます。ゲインは上げていません。

 

 

「リリース:10msec」

 

 

リリース10msec

数字の通り正確に、とはいっていませんが、赤枠辺りでコンプが解除されています。

少し詰まったような音で、すぐに原音の余韻が回復しています。

そのため、スネアの余韻のシャリッとした感じが若干強調される形になっています。

 

 

「リリース:180msec」

 

リリース180msec

赤枠辺りまで、音が潰されているのがわかります。

シャリッとした余韻が大分潰されているので、カラッとしたような印象があるかと思います。

 

 

「リリース:1000msec」

 

リリース1000msec

リリース180msec以上に乾いた印象です。

約1秒、圧縮がされ続ける形になるため、音が吸い込まれるような感じにも聞こえます。

 

リリースタイムが「180msec」のサンプル音では、

例えば300msec付近は確実にコンプは解除されていると思いますが、

このリリースタイムが「1000msec」の場合、300msec辺りではまだ圧縮が続いています。

多分レシオ「6:1」か「5:1」くらいだろうか、

リリース180msec以上に乾いた音に聞こえるのはその為です。

 

 

 

 

コンプを使って曲全体に抑揚を付ける方法

 

アタックタイムとリリースタイムを調整することで、

音にずっとコンプレッサーを掛けたままの状態にする事も出来ます。

コンプかかりっぱなし

初めにスレッショルドを越えてからコンプが効き始めるのですが、

リリースタイムを長くすることで、コンプの解除前に次のスレッショルドを迎えることで、

リリースとアタックが被り、結果的にコンプがずっと効いている状態になります。

 

これは、曲のフレーズの頭だけインパクトを強めて、

以降の音量を抑えることで、曲全体にメリハリを効かせるやり方になります。

 

圧縮比率はその経過タイミングごとに違うとは思いますが、2番目以降の頭の部分は、

少なくとも1番最初の頭よりは相対的に抑えられることになるので、

曲全体に抑揚を付けられることになります。

 

ただし、音の信号がゼロになるとコンプは自動的に解除されてしまうので、

音の途切れないようなギターのストロークや、

余韻が続く細かいフレーズのあるドラム全体などに、効果が期待できます。

 

 

まとめ

  • レシオは音の圧縮比率のこと
  • アタックタイムは、コンプが完全に掛かりきるまでの時間
  • リリースタイムは、コンプが完全に解除されるまでの時間

そして、

  • アタックタイムは、音の立ち上がりを調整する
  • リリースタイムは、音の余韻を調整する

 

音の立ち上がり、余韻の調整は、

楽器や音のフレーズによってそのアプローチがかなり違ってきます。

そのため、単純に立ち上がりや余韻を調整するため!とは言えないのが

コンプの奥の深いところです。

 

概要が少し大雑把かもしれませんが、

まずはコンプの全体像を把握してもらえたらという形で記事にしています。

次回は、Kneeやゲインについて書いていきたいと思います。

 

 

それでは!

 

【コンプ・Lv2】コンプレッサーの基本、スレッショルドの浅めと深め

こんにちは、MAKOOTOです。

 

今回はコンプレッサーLv2ということで、まずは基本から。

代表的なパラメータは以下の通り。

 

コンプパラメータ

  1. スレッショルド(Threshold)
  2. レシオ(Ratio)
  3. アウトプットゲイン(Output Gain)
  4. アタックタイム(Attack Time)
  5. リリースタイム(Release Time)
  6. ゲインリダクション(Gain Reduction

 

コンプレッサーによって、当り前のパラメータがついていないものや、

Distortion等、上記にない機能が備わっているものもあります。

Cubaseのコンプにはレシオに組み込まれているKnee(ニー)も個別になかったり、

同じく上にはインプットゲイン(Input Gain)も無いですね。

 

ですが、そもそもはコンプを使う意味さえ知っていればよいわけですから、

仮に上記パラメータの無いコンプに出くわしても慌てる必要は全くありません。

 

それでは、早速見て行きましょう。

 

スレッショルド(Threshold)

圧縮を開始させるための音量ポイント、閾(しきい)値のことです。

この数値(音量)を原音が超えると圧縮が始まります。

Cubase-Comp

 

 

まず、スレッショルドが原音より高い場合。(例:0dB)

スレッショルド1

原音よりもスレッショルドは極浅めの設定なので全く圧縮されません。

 

 

次に、スレッショルドレベルを原音より少しだけ低めにしてみます。(例:-10dB)

スレッショルド2

紫色の部分はスレッショルドを越えてことになるので、ここの部分が圧縮されることになります。

ただ、その部分はちょっとしかないので、この場合「浅め」と表現します。

 

 

では、思いっきりスレッショルドレベルを下げてみます。(例:-40dB)

スレッショルド3

わかりやすいですねー、上の青紫色の部分がでかくなりました。

この部分が圧縮対象になるので、がっつり音が潰れることになります。

このスレッショルドの設定を低くすることを「深め」といいます。

 

 

では、他のパラメータはとりあえず置いておいて、

スレッショルドの効果を音で確認してみましょう。

わかりやすくすぐに圧縮されるよう、アタックタイムは0.1msecにしています。

 

 

「スレッショルド:0dB」(素の音と同じ)

 

スレ0

スレッショルドが0dBなので、素の音と全く同じです。

 

 

「スレッショルド:-10dB」(浅め)

 

スレ-10

慣れるまでは素の音との違いがわからないかもしれませんが、

波形を見ると確実に音の立ち上がりの部分が潰されています。

 

 

「スレッショルド:-30dB」(深め)

 

スレ-30

ここまでやるとすごくわかりやすい!(笑

頭の部分が思いっきり潰されているのがわかります。

立ち上がりが余韻とほぼ同じくらいまで圧縮されているので、

残響効果で、まるで遠くで叩いているような感じにも聞こえます。

 

 

スレッショルドの「浅め」と「深め」

 

スレッショルドでは、この数値だから浅い、深いという絶対的な数値はありません。

「原音に対して」浅く掛かっているか、深く掛かっているか

という相対的なものとなります。

 

以下に代表的な浅め・深めの使い方を書いてみます。

実際、各パラメータの設定によってその使い所はかなり違ってくるのですが、

最初は大雑把でもよいので、全体像が見えると理解しやすいのではないかと。

 

 

浅めの使い所

  • 原音のニュアンスはあまり変えたくない
  • 存在感を少しだけ強くしたい
  • 飛び出ているなと感じる音だけ抑えたい
  • 頭は潰したくないけど、余韻を少し消したい

 

・・・などが挙げられます。

原音の雰囲気がよいので、あまり弄りたくはないんだけど、

他の楽器などの音との兼ね合いでぶつかったり、埋もれたりなどした時に、

その兼ね合いをちょっとだけ整えてやる、というイメージです。

 

ちなみに、極薄掛けした場合、慣れていないと単音では効果がわかりにくいのですが、

これが複数の楽器が同時に鳴っている場合、相対的に質感が変わってきます。

それが2個、3個と弄っていくと、最初の時とは大分違うようになる。

 

なんか違う・・・何が違うかよくわからないけど、聞きやすい。かっこいい!

こういう風に聞こえるようになります。

 

 

深めの使い所

  • リズムに迫をつけたい
  • 輪郭をはっきり作りたい
  • バラつきすぎた音量差をある程度揃えたい
  • ぶつかりあっている同じ帯域の音をバランスよくしたい
  • 高圧縮による音の歪みを利用したい時
  • 音を前に持ってきたり、後ろに引っ込ませたい
  • タイトな音を作りたい

 

・・・などがあるのではないかと思います。

これはやはり、コンプをかける音の特性ごとに設定も違ってきて、

主にアタック・リリースを細かく設定していく必要があるので一概には言えませんが、

深く掛ける場合はどのみち音に激しい変化が出てきます。

 

この辺りは概要程度なので、サラッと流して下さい。

 

 

始めてコンプを使う時のコツ

 

これは私がオススメする、コンプに慣れる初めの方法なのですが、はじめは、

 

スレッショルドを少し深めに設定してから、

パラメータを弄ってみて下さい。

 

使い始めの初期の場合、コンプはその効果がわかりにくいと言われていますが、

事実、その通りだと思います。

 

長年現場でエンジニアとして音に携わっている人間は、

聴覚の次元が常人とはケタが違います。

ほんと凄いですよ。耳の精度がえらい高く、凄まじく鍛え抜かれている。

 

それくらい精度の高い耳での判断なので、

注意深く違いを聞き取る意識を普段から高めていない場合、

正直言って、よくわからないのは当り前です。

 

 

なので、コンプを使い始めの頃は、まずはスレッショルドをかなり下げ目にして、

それから各パラメータを弄ってみて下さい。

その方がコンプを掛けた時の音がはっきり聞き取れるので、

まずはどういう効果が出るのかを、耳で把握してみましょう。

 

そして、こういう音になるのか!と段々とわかるようになったら、

スレッショルドを浅めにしていって、その違いを聞き取れるようにしていきます。

 

 

ただし、注意点としては、深く掛けすぎないこと

スレッショルドが深すぎる場合、

コンプの種類によっては圧縮のしすぎで音が意図せず歪んでしまうことがあります。

 

また、スレッショルドによって、コンプの掛かり始め、掛かり終わりの位置が変わります。

スレッショルド違い

同じアタックタイムやリリースタイムでも、

立ち上がりと残響状態が音のレベル部分によって違うので、

単純に深めの設定をそのまま浅めにもっていけばいい、というわけでもなくなります。

 

流れとしては、

  1. ある程度、スレッショルドを深めに掛けて設定し、音を聞いてみる。
  2. 次にコンプをバイパスして(コンプが動作しない状態)、素の音を聞いてみる。
  3. またコンプを掛けた音を聞いてみる・・・

と比較してみるとよいかと思います。

 

この場合、コンプを掛けている時は、全体の音量が下がっている事が多いので、

なるべく原音と同じ音量で聞けるようにするため、

コンプ内でのアウトプットゲイン(MakeUp Gain)を上げておくと良いです。

 

 

下のサンプルを聞き比べてみてください。

 

「素の音」

 

「スレッショルド-30、原音と同じ音量くらいまでゲインを上げたもの」

 

2番目のサンプルを聞くと、余韻が物凄く大きくなっているのがわかります。

また、全体の音量を持ち上げている形になるので、

500Hz辺りのキィー…ンという音が目立って聞こえるようになっています。

 

これは、コンプを少し深めに掛けることで発生する倍音成分がプラスされたものかと思われます。

コンプではこうして意図的に歪みを作って、音を太くする、音を豊かにする使い方があります。

これが逆に嫌だなと思った場合、コンプの後にEQを掛けて、

余計な倍音成分をカットしたりなどすればよいかと思います。

 

 

まとめ

 

コンプの基本パラメータは、

  1. スレッショルド(Threshold)
  2. レシオ(Ratio)
  3. アタックタイム(AttackTime)
  4. リリースタイム(ReleaseTime)
  5. インプット/アウトプットゲイン(Input/Output Gain)
  6. ニー(Knee)

 

スレッショルドとは、どの音量値から圧縮をはじめるかを設定するもの

原則として、原音より数値を低くしないとコンプは作動しない。

 

コンプに慣れるには、初めはスレッショルドを深めに設定して、音の変化を把握しよう

 

 

ということで、今回はスレッショルドについての記事で終わってしまいました。

それだけコンプは気を遣うエフェクトでもあるので、

じっくり確実に見ていきましょう。

 

 

それでは!

 

【Mixing・Lv1】ミキシングで何から始めればいいかわからない時のポイント

こんにちは、MAKOOTOです。

今日はミキシングの概要を書いていきたいと思います。

 

 

私が作曲を始めたばかりの頃は、

当然ながらまだこの言葉を知りませんでした。

 

「MIDI」と呼ばれる、簡単に言えば音を出すための設計図に色々書き込んで、

それを単純にPC内蔵のボードで鳴らして遊んでいたんです。

 

しばらくして、実際にオーディオデータを扱う「DAW」と呼ばれる作曲ソフトに移行し、

本格的に楽曲を作っていく過程で、ミキシングとか、そういう言葉を知りました。

 

(「MIDI」や「DAW」、そして今当り前に書いている「DTM」という単語も、

一個一個記事にしていく予定なのでここでは割愛します。)

 

それではミキシングとはそもそも何なのかをまずは見ていきましょう。

 

 

ミキシングとは

 

安定のウィキペディア引用どーん!!

ミキシング (Mixing) とは、多チャンネルの音源をもとに、ミキシング・コンソールを用いて音声トラックのバランス、音色、定位(モノラルの場合を除く)などをつくりだす作業である。元のチャンネル数から少ないトラックに移行させるため、同義語としてトラック・ダウンとも呼ばれる。

出典:Wikipedia、ミキシングページより

つまり、一曲内の音のバランスを取る。一言で言えばこうなります。

 

これは楽曲を作っていることが前提で、最初は色んな楽器や音色がたくさんある状態。

音がミックスされた状態ですね。

そしてそのバランスが取り終わって、上手にできましたー!完成しましたー!という時に、

一つのオーディオデータとして書き出す。これを「ミックス・ダウン」といいます。

 

ミキシング概要

 

ダウンという言葉が使われているのは、

「下がる」という意味もありますが、「終わる」という意味もあります。

スポーツでも「選手がアップを始める」と耳にするかと思いますが、

あれはこれから始める準備をしているわけです。アップ・ダウンにはそういう意味もある。

 

 

そして、引用の「トラックダウン」

トラックとは「通り道」という意味があり、音のデータ管理を行っている一つの単位です。

基本的には、1トラック1音色を割り当てて音を出します。

ピアノトラック

ただ、トラックに関しては色々な使い方があって、例えば上の図のように、

「Track1=ピアノ右手」、「Track2=ピアノ左手」

という風に、一つの楽器でも奏法ごとに分けたり、またリバーブ成分だけを担うトラックを作ったりと

この辺りは作り手が自分のわかりやすいよう、ある程度自由に使い方を決められます。

 

多い場合には、一曲辺りに100トラック超えも当り前で、それらが最終的に一つのデータにまとめられる。

上の例で言うなら、トラック数も100→1になって、同時に工程も終わる。

 

まさに「ミックスダウン」、「トラックダウン」というわけです。

 

 

 

ミキシングの主な要素

 

さて、音のバランスを取るということなのですが、具体的に何を弄ればよいのかを大別すると、

  • 音量
  • 定位
  • 音色
  • 空間
  • タイミング

の5つ。

Wikiとはちょっと違うのですが、私はこの5つで見ています。

 

 

音量

音の大きさ。各楽器の大小の調整や、一つの楽器での大小(ダイナミクス)調整など。

一番バランスを取る必要のあるパラメータです。

 

定位

音の位置のこと。現在、ステレオ2MIXで曲を作ることがほぼ基本なので、

左右の位置バランスを取ることになります。

モノラルの場合、定位は一つで固定なので考える必要はありません。

 

音色

音が持つ周波数特性を調整することで音の色に変化が出ます。

高域を上げると明るめでキンキンし、低域を上げるともっさりするなどの特徴があります。

 

空間

残響を作り出すことで、奥行きが生まれます。2次元が3次元になる。そういった空間の調整。

残念ながら4次元の作り方は私にはわかりません。(笑

 

タイミング

時間軸調整です。発声タイミングを整えることでリズムを作ったり、音の重なりを回避したりします。

 

 

 

要は、自分が音を使ってどういう演出をしたいかを調整する作業がミキシングです。

例えるなら自分が、指揮者とか、監督とか、エグゼクティブプロデューサーなど、

楽曲に対して自分が全てを取り仕切る役、つまりリーダーであるということ。

こういう風に考えていただけるとわかりやすいのではないかなと思います。

 

 

ミキシング工程の曖昧さ

 

ミキシングといっても、その工程はジャンルや作り手のスタイルによって本当に様々です。

 

一人で全部作るのか、複数で作るのか、バンド形式に曲を作っているのか、など

これだけでももう作業工程が全然違います。

 

例えば、

昔からPCで曲を作っている人で、曲の設計図だけ慣れている専用のMIDIソフトで描いて、

それをオーディオで鳴らすためにPro ToolsなどのDAWソフトに持っていって音を当てて、

それからミキシングをする、作曲とミキシングがほぼ別のケース。

 

クラブ系の曲で、もう初めからオーディオデータを扱ってしまって、

それにエフェクトを掛けたまま音を置いていって、

作曲とミキシングを同時に済ませてしまうケース。

 

 

前者に近い場合、最初にコードとメロディだけ紙面にかいて、

それをスタジオなどで叩いて弾いて歌ってもらって、録れたデータをミキシングする、

という形ならば、工程が分かれているのでミキシングの意識も大きいです。

 

しかし、PCで一人でDAWを使って完結させる、という場合、

作曲工程とミキシング工程が初めからくっついている状態なので、

改めてミキシングをする、というイメージは少し難しいかもしれませんね。

 

 

楽曲が出来るまでの工程がそれだけ様々であることが、

音楽の敷居の高さ、そしてその工程の曖昧さに繋がっている気もしますが、

ミキシングで言うなら、要は、

 

音のバランスをしっかりとる。

 

ここさえ押さえておけば大丈夫。

作業工程が違っていようが根本的にはなんら問題はありません。

 

 

ミキシングで一番押さえておきたい最初のポイント

 

これからDTMを始めるという方、やってみたけど微妙によくわからないという方には、

以下の二つから調整することをオススメします。

 

「音量」「定位」

 

これは、長年現場でやっているプロのエンジニアや、

私の知っている作家でも外からの評価が一つ頭抜けている人たちが、

ミキシングにおいて初めに意識している点、と言っていたからでもあります。

 

もちろん全てではないですが、ミキシング自体がよくわからないという場合は、

ここから見ていくと後々すっきり解決することが多いです。

 

 

エンジニアと聞くと、

「どんな凄い技術やノウハウであの音や音像を作り出しているんだろう・・・!?」

と普通は考えます。

 

確かに、「なるほどすげぇ!てかそれは無理だわ・・・」クラスの技術はあります。

 

でも、音源を聞いたり、実際に話を聞いたり、作業しているところを見せて貰ったりして思ったのは、

至極当り前のところを、当り前のようにこなしている

その積み重ねで出来上がっていることばかりなんですよ。

 

例えば、Sleepfreaksさんの下の動画。

 

4:20辺りからの、Cubase7.5から付属されている「MagnetoⅡ」の解説。

これを聞いて頂けるとわかるのですが、

 

エフェクトを掛けた結果、大きくなってしまった分の音量を、

原音と同じ感覚で聞こえる音量まで相対的に下げる。

 

ということをしています。

なぜかというと、この時点ですでに原音の音量調整は行われているからです

 

動画の講師の方が、実際どの段階で音量調整をされているのかはわかりませんが、

この流れから察すると、エフェクトを掛ける前にはすでに全体の音量調整は行われている

だから、エフェクトを掛けた後、音量が大きくなってしまったままではまずいのです。

 

 

ミキシングと聞くと、色々エフェクトもあるし、さぞ難しいことをしなくてはいけないのでは。

こういう風に考えるケースは当然あると思いますし、

私自身、当初は効果のよくわからないまま、話に聞くままエフェクトを使いまくってました。(笑

でも、よくわからないまま使ってみてもやっぱり安定感が全然ないんですよね。

 

 

はじめは「音量」と「定位」から

 

というわけで、ミキシングというものがよくわからない場合、

ここのバランスをまずはしっかり取ることを心がけてみて下さい。

 

それで、音量調整をして位置を横にずらしたりしても音が団子になったり、

この音はあんまり横には置きたくないんだよな~、という時に、

EQやコンプなどのエフェクトで解決するようにしていくと良いかと思います。

 

そして、初めはミキシングでのエフェクトと、音作りとしてのエフェクトは別で考えること

慣れてくればエフェクトの特性が理解されるので、次第に余計な作業が減っていきます。

 

 

これだけやるなら簡単だな!という印象もあるとは思います。

が、音を足していったり、曲の後半の展開を変えたいなど、

次第に要素を盛り込んでいくとこれが結構崩れてきたりします。

 

エフェクト差しまくって訳がわからなくなって、最初の状態に戻った時、

「何もしないほうがいいじゃん」ということもよくあります。(笑

 

悩んだり、困ったりしていなければ問題ありません。

ガンガンいこうぜでOK。

 

 

まとめ

ミキシングとは、

  • 音のバランスを取る作業のこと

調節する要素は、

  • 音量
  • 定位
  • 音色
  • 空間
  • タイミング

の5つ。

最初にミキシングで心がけるポイントは、その内の2つ。

  • 音量
  • 定位

 

 

人の数だけ世界があるので、色んな切り口があると思います。

ご参考にして頂けたら幸いです。

 

 

それでは!

 

【コンプ・Lv1】超重要エフェクト・コンプレッサーのド基本を押さえろ!【DTM】

こんにちは、MAKOOTOです。

 

音作りをする上でまず欠かせないであろう超重要エフェクト

 

「コンプレッサー」

 

それを今回から順序立てて解説していこうと思います。

初回のLv1では概要のみになりますが、

まずはこれがどういうものなのかをざっくりでも知っていこうということです。

これがあるとないとでは、やはり理解は変わってくると思ってます。

 

 

そしてこのコンプ、よく一般的にも言われている通り、

私も使い初めの頃は、その効果が全然わかりませんでした

 

実際効いているのかどうかもよくわからなかったし、

今度は効かせすぎて音がカッチカチになってしまって、

最終的に耳に痛い曲が出来上がってしまった等、

まー随分ワケがわからないまま使い続けていたのを覚えています。

 

 

 

このブログで書く記事というのは、

基本的には読者の方に、

私が散々してきた遠回りをサクッと乗り越えてもらって、

その分音楽を楽しむ時間を増やして頂きたい。

 

結構そういうところ、あります。

いや、あれこれ煮詰めていくのはとても重要だと思います。

思うんですけど、自分の場合かなりアホだったのと、

少し時間をかけすぎた感があるんですよ。

 

なので、是非、私の屍を乗り越えていって頂きたい。

割と本気でそう思ってます。

 

 

 

Compressor(コンプレッサー)とは

体積の圧縮や信号の圧縮を目的とした機械あるいは機器。圧縮機。

出典:Wikipediaより

 

日常的には、自転車屋さんにある、

「ドルルルル!!」という空気入れ装置などがそうですね。

あれ回しながらタイヤのチューブに空気入れてる間は、ほんと周りの音なんも聞こえません。

自動車コンプレッサー

画像は車のコンプレッサーですね。

 

 

それに比べて音楽業界でのコンプレッサーは、

もはや愛称みたいに「コンプ」って呼ばれることが多いです。

空気圧縮装置の実際の迫力に比べたら、確かに可愛いものかもしれない。(笑

 

 

 

音楽用途としてのコンプレッサー

ざっくり言いますと、音を圧縮する装置のことです。

 

バンドをやってた人なら、ハードのコンプの方が馴染みがあると思います。

エフェクトなど

一番左がそうですね。

 

 

次回以降のコンプの記事で使用していくものはソフトの方です。

エフェクトソフトコンプ

↑はVSTインストゥルメントの「T-RackS CS Crassic Compressor」です。

 

 

 

それではコンプの用途を見ていきます。

大きく分けて二つ。

 

 

1、音のレベルを調整できる

音楽的なコンプレッサーは、元々、音の歪みを抑えるために使われていました。

 

ここでいう音の歪みとは、例えば、スピーカーのボリュームを最大にすると、

音が綺麗に聞こえずにバリバリいってしまうことがある、という類の歪みのこと。

 

音が大きすぎる=入力信号が大きすぎると、出力装置に負担が掛かりすぎてしまい、

正常に音が出てくれないどころか、スピーカーなどの装置自体を壊してしまう恐れがある。

 

恐れがあるというか、実際それで壊れるケースが多かった。

それを防ぐため、音をある程度圧縮させるためにコンプレッサーが使われていた

という経緯があります。

 

 

 

2、音作りができる

コンプは、圧縮率や、効き始め、効き終わりなど、

入力信号に対する出力調整をかなり細かく行えるので、

結果的に音に大きな質感変化を作り出すことが出来ます。

 

音作りと聞くと、やはり「全く新しい音を生み出す」というイメージの方が強いかもしれません。

例えば、「スター・ウォーズ エピソードⅡ」のサイズミックチャージの音とか。


「ヴヴイィイィーー・・・ン!!!」

 

 

 

「なにこの音聞いたことねェ!!!」

みたいな。(笑

 

 

 

コンプでの音作りというのは、そういった類のわかりやすい音作りではなくて、

原音の輪郭を整えたり、発声タイミングをズラしたりなど、

サイズミックチャージのインパクトから見たら、かなり地味な部類の音作りということになります。(笑

 

 

効果がわかりにくいのも当然なんですよね。

すでにある音を如何に整えていくか、という作りこみになるから。

 

でも、このコンプでの調整を行うことで、はっきりとはわからなくても、

確かに音全体に違いというものが生まれます。

 

 

 

「コンプ」と「リミッター」

さて、コンプには大別して

  1. 音量レベルの調整
  2. 質感調整

と二つの顔を持っているということになりますが、

1の、音の出力を抑えるという点では、

リミッターやマキシマイザーなどと効果が重複します。

 

「同じ効果なら一緒にしたほうがわかりやすくない?」

 

と私は最初思っていたのですが、これにはきちんと別にされている理由がありました。

 

 

例えば「リミッター」。

その名の通り、マスタートラックなど絶対にピークを越えてはいけないところに必ず使われるもので、

ある一定以上の音量は完全に飛び出させないように抑えるための、

絶対的な守護神エフェクターとして存在しています。

 

 

これ、元々はコンプと一つのものだったんですよ。

一つだったというよりは、今で言うエフェクターの「リミッター」の働きは、

そもそもコンプレッサーの圧縮率を極限まで高めた状態のことを言っていて、

後に、切り離して名前と本来の役割だけを与えたもの。

それがリミッター。

 

 

 

コンプレッサーは、圧縮率を緩やかにした場合、

音に対してかなり繊細なアプローチができることから、

音の粒揃えや輪郭調整など、整える音作りに、次第に使われるようになりました。

 

 

その効果が大きかった為、現在では、

 

コンプは本来の用途の発展型として、音作りの役割を持ち、

リミッターは本来の用途に、より忠実な形として、音を抑える役割を持つ。

 

 

こういう理由から、今ではコンプとリミッターは別々に存在しています。

 

 

 

 

 

これが分かれた経緯を考えると、当時の人はほんと凄いなと思います。

 

当初コンプレッサーが導入された理由は、音の歪みを解消するためであって、

音作りをしようという理由ではなかったはず。(そういう人もいたとは思いますが。)

 

それを、調整しながら使っていくことで、次第に音の変化に気付きはじめ、

今ではコンプは、むしろ音作りがメインになっている。

 

人間って、凄いなホント。(笑

 

 

 

まとめ

コンプレッサーは音を圧縮するエフェクター。

用途は、音量レベルの調整原音の細かい音作りの二つ。

少し噛み砕くなら、

  • 全体の音のバランス、粒を揃える
  • 音にメリハリを付ける
  • 音に存在感を与える
  • 音割れを防ぐ
  • 音を太くする
  • 音圧を上げる

といった内容で使える。

また、リミッターとは兄弟の仲である。

 

 

ということでした。

 

次回のコンプLv2では、実際にパラメータや音を聞いて理解を深めてみたいと思います。

 

 

それでは!

 

【Retrologue】シンセ音の4つの基本波形を音と画像で理解する【DTM】

こんにちは、MAKOOTOです。

 

只今、シンセ音の基礎を総ざらい中でございます。

で、これをもう備忘録も兼ねてブログの記事にしてしまおうというわけです。

 

音楽におけるシンセ音は、以下の4つが基本波形

  1. sine(サイン波・正弦波)
  2. triangle(三角波)
  3. saw(のこぎり波)
  4. square(矩形波・方形波・パルス波)

 

 

「プルルルル・・・」という電話音や、

「ピーッ・・・ピーッ・・・」という心電図の音、

「ピンポーン」でおなじみのインターホンの音など。

 

日常的にはもっと沢山の電子音を耳にするかとは思いますが、

それらは全部この波形音が重なり合って、違う音のように聞こえています。

 

 

そしてこれらは、オシレーターと呼ばれる発信器から音が生成されています。

発振器の事。シンセサイザーでは音の元となる波形を作り出す部分に相当する。省略してOSCと書かれる事も多い。

出典:偏ったDTM用語辞典

音というのは、空気の振動を耳で感知するものなので、基本は目に見えません。

その空気振動を、人工的に作り出しているのがオシレーターです。

 

上の4つの代表的な波形は、その名前通りの波形をしています。

なので視覚的にはわかりやすいのですが、

それが実際どういう音なのかはすぐに思い浮かばないことも多いかと思います。

 

 

今回、Cubase付属のVSTインストゥルメントである、

「Retrologue」を使って、その波形を見ていきます。

 

 

 

 

 1、sine(サイン波・正弦波)

Retrologueは、この4つを基本として音作りが出来るようになっています。

正弦波・三角波・のこぎり波・矩形波は、

このWAVEのつまみをそれぞれ回して決めてやります。

 

 

最初は、赤丸で囲ったsine波。

倍音成分を持ちません。シンプル is BESTな波形。

丸みのある、少し篭ったような音が特徴的ですね。非常に無機質な感じもします。

 

とても規則正しい波形なのが伺えますが、

変なところをキャプチャしてしまったせいか、

逆に気持ち悪い気もしなくもないです(笑

 

 

0.001秒間隔にまで拡大してみます。

あーなんか落ち着いた(笑

これ以上ないくらいシンプルで非常にわかりやすいですね。

 

こんな感じの振動が、一瞬の間に何百、何千とある。これが音の正体

 

ちなみに、このウェーブは振動を図にしただけのものなので、

例えば波形の下側だから音が低いとかそういうわけではありません。

 

音楽では、音の大きさ・強さを、dB(デシベル)で表すのですが、

一般的な数字の表記と意味が少し違っていて、

真ん中の「ー∞」は無音

上の方の「0」はオーディオデータの最大上限出力MAXを意味します。

 

つまり、-∞から0に近づけば近づくほど、音が大きくなるということです。

 

 

 

 2、triangle(三角波)

 

理論的にいうならば、基音と奇数倍音(3、5、7・・・)を含みます。

ただし、そこまで倍音成分が強くはない為、

先程のsin波よりは聞き取りやすく、少し明るくなったような印象です。

 

見た目も名前のまんまです。

 

ちなみに、低音での三角波の波形はこちら。

直線ではなくて、実は曲線。サメの尾のように生き物っぽい印象があります。

 

 

なぜ低音と高音で波形が微妙に違うのかというと、

これは三角波を出力するオシレーター内の演算式の仕様です。

 

演算式であるフーリエ級数とか昔すごい勉強したんですけど、

10年やらないと流石に忘れが激しいので、この辺りはさくっと割愛します。(笑

 

とりあえず、三角形だなぁ・・・と。(急に適当

 

 

 

 3、saw(のこぎり波)

 

三角波と形は似てますが、音の質はかなり違う印象があると思います。

 

これも超拡大していますが、三角波や正弦波と違うのは、音の立ち上がり。

のこぎり波の場合、いきなり音がMAXになっていて、これが一瞬の間に超連続している。

見た目もなんとなくかっこいい。

 

[speech_bubble type=”fb” subtype=”R1″ icon=”ruii2.jpg” name=”ルイー”]なるほど!まさにオレのことだな![/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu6.jpg” name=”シブ君”]突然現れたねー、今回出なくていいと思ってたのに・・・[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]というかルイーは一個前の100%三角だよねどう考えても[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]ごまかしちゃダメでしょ[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]あとキミの存在は三角波に失礼だから[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii4.jpg” name=”ルイー”]あ、ハイ、すんません・・・[/speech_bubble]

 

 

 

低音での波形も見てみましょう。

立ち上がりはほぼ直線、ではありますが、厳密には完全な真直線・・・ではないですね。

振動の仕方も弧を描く曲線になっていて、ちょっと面白い。

 

[speech_bubble type=”fb” subtype=”L1″ icon=”shibu7.jpg” name=”シブ君”]面白い?それボクのこと!?[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii3.jpg” name=”ルイー”]あーそうだな、面白い面白い[/speech_bubble] [speech_bubble type=”think” subtype=”R1″ icon=”ruii3.jpg” name=”ルイー”]コイツ本当に毛根っぽいよなぁ・・・[/speech_bubble]

 

 

 

また、倍音成分は整数倍、つまり「1,2,3・・・」と全ての倍音を含むので、

ヴァイオリンや金管などの楽器と性質がかなり近いという特徴があります。

 

 

↓Retrologueのノコギリ波↓

 

 

↓Hollywood Orchestraの1st Violins↓

 

[speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]1kHz辺りからの小刻みな波形が特徴的だね[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii1.jpg” name=”ルイー”]なんだ、割と真面目じゃないか[/speech_bubble]

 

 

倍音が整数倍ということもあるので、一番耳に馴染みやすく、

またエフェクトをかけた際にも一番柔軟に音の変化が出やすいので、

とても扱いやすいシンセ音かと思います。

 

 4、square(矩形波・方形波・パルス波)

 

昔ながらのゲーム音というイメージが強いかと思います。

以前、「コナミ矩形波倶楽部」という熱いチームもあったくらいですし。

 

倍音成分は基音と奇数倍音(3、5、7、・・・)を含む点では三角波と同じですが、

その奇数倍音のパワーが強いこともあり、音の存在感はかなりあります。

 

このsquareタイプには、大別して2種類に分かれていて、

デューティ比(↓図でいう、横幅のこと)が0.5、

つまり正方形になる形を一般的に矩形波と言います。

 

 

そして、デューティ比が例えば0.9とかになると、パルス波と呼びます。

同じsquareでも結構音が変わりましたよね。

どこか潰れたような、でも程好く空気も抜けたーみたいな印象です。

 

波形は、ちょっとわかりにくいですが一箇所だけ伸びているような形になります。

ちなみに、このようにパルスの横幅をとっていくと、偶数倍音が生み出されるので、

そういう意味では、多彩な表現が可能であるのがsquareの特徴と言えるでしょう。

 

 

また、デューティ50%の矩形波での低音部はこちら。

正弦波と比べると大分複雑になってきています。

 

波形、つまり振動の複雑さに比例して、

音の表情も変わってくるということがわかりますね。

 

 

 おまけ、ノイズ

音色として使うノイズ音。

私はTVをほとんど見ないので最近はわかりませんが、

昔は夜中の2時にTVをつけると番組がやっていないので、ザーという音をよく聞きました。

その時の音がこれと同じ。

 

耳で単純に聞くと、あー・・・って感じなるホワイトノイズですが、

波形だけ見る分には意外と安定してるんですよね。

 

出力信号がランダムなので、可聴帯域も基本全部をカバーします。

なので、ホワイトノイズを聞いている間、赤ちゃんがよく眠るようになる、

という話もあるくらいです。

 

 

・・・まぁ、お母さんのお腹の中と周波数帯域は似ているのは確かにそうなのでしょうが、

それでもお母さんのお腹の中で聞く「音」と「ホワイトノイズ」は実際違うと思います。

 

でも、耳障りでない程度である分には、周囲の環境音も掻き消えるし、

どこかヒーリング効果もありそうだからいいのかなぁ。

 

[speech_bubble type=”fb” subtype=”R1″ icon=”ruii2.jpg” name=”ルイー”]シブはあとどんくらい経ったら足が生えるんだ?[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu7.jpg” name=”シブ君”]おじゃまじゃくし!![/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii4.jpg” name=”ルイー”]やべー、こいつ強えぇ~・・・[/speech_bubble]

 

 

 

 まとめ

  • サイン波(正弦波)は倍音成分がないので、無機質な音。シンプル
  • 三角波はサイン波よりは少し明るい。倍音は奇数次(少な目)。
  • のこぎり波:音質的には一番豊か。倍音は整数倍(全て)。
  • 矩形波:ゲーム音ぽい。かなり多彩。倍音は奇数次(多目)
  • パルス波:ゲーム音ぽい。薄いようで中身は濃い。倍音は偶数次もプラスされる。
  • ノイズ:耳障りだけどどこか安心感もある謎の音。ランダム信号。

 

 

シンセの音は、基本この4つの波形にノイズ音を加えて作るケースが一般的です。

この基本の掛け合わせで実に色んな音が作れるわけですが、

ハマるとなかなか抜け出れないので、注意が必要です。(笑

 

 

それでは、今回はこの辺で!

 

【ディレイ・Lv5】ディレイで作り出す3つのステレオ感・その2【DTM】

こんにちは、MAKOOTOです。

 

ディレイ講座Lv5です。

引き続き、ディレイでステレオ感を出そうという記事です。

前回の記事はこちら
【ディレイ・Lv4】ディレイで作り出す3つのステレオ感・その1【DTM】
ディレイの掛け方の3パターン、

  1. 横の流れを作り出すステレオ感
  2. 音の箱を作り出すステレオ感
  3. 音の壁を作り出すステレオ感

のうち、今回は3を取り上げます。

といっても、これも非常に簡単です。

 

 

 3、音の壁を作り出すステレオ感

 

2ではMonoDelayを使ったので、3ではStereoDelayを使ってみます

個人的にはセンドでディレイ成分だけ別トラックを作って、

そこで音量調整をしたほうがステレオ感の精度を上げやすいのですが、

気持ちちょっと端折りたい時や、そこまで細かい設定を気にしなくても良い場合は、

StereoDelayを使います。

 

 

まずは素の音。

EastWestのRAのマンドリンです。

なかなか激しくアルペジオさせてます。

サンプリング音源なので、アンビエンス感といいますか、最初から若干音の広がりを持ってます。

 

それではこの音を左右に置いて、音の壁を作り上げてみます。

 

ディレイ加工後。

 

このマンドリンの音には、ディレイを二つ使いました。

一つは、左右に音の壁を作るために直接インサートしたStereoDelay

もう一つは、奥行きを出すために、センドでセンターに返したMonoDelay

 

StereoDelayの設定は、右の出力は原音のみにするため、Mix=0

つまりDRY=100%なので、右側の他のパラメータを弄っても一切反応しません

これは、Mix以外のパラメータは全部ディレイ音のみに掛かる設定だからです。

 

右を原音のままにしたので、左の出力をMix=100にします。Panは左に振り切り。

WET=100%ですので、左はディレイ音100%しか鳴りません。

原音と同じ出力にするため、フィルターはオフにし、Feedbackも0。

左右の音の干渉具合からステレオ感を出すため、DelayTimeを20msecにします。

 

 

MAKOOTO的、ステレオ化ディレイタイムの黄金律は20msec

いや、ボーカルの189msecディレイの話ではないんですが、

私にもディレイの数値としてはもうずっとこの数値で固定、というのがあります。

 

 

一つの音を左右に複製した場合、まずはモノラルで聞こえてしまいます。

それをステレオ感を出してはっきり聞きたい場合、色々なずらしをしていくのですが、

ディレイを使ってのステレオ感演出となると、そのずらしの選択肢があまり多くありません。

 

ピッチシフトや位相反転は、MIDIやオーディオデータでしか有効でないなど、

条件によって使えないことが結構あったり、やってみたら別の部分に謎の違和感を覚えたり等、

まーとりあえずテンプレが出来てもめんどくさいもんはめんどくさいんです。(笑

 

なので、仮でもいいのですぐにステレオ化して聞きたい!という時に、

このStereoDelayをとりあえず差してディレイタイムを毎回弄っていたのですが、

いつの間にか、ここ、という数値に落ち着いていました。

 

それが「20msec」

 

この数値はディレイで左右に壁(ステレオ化)を作る際、

左右の音ズレ感覚が一番小さく、ステレオ感を感じられる境界線のTimeとして、

私の中ではもはや黄金律的な数字になってしまっています。

 

 

これより短いDelayTimeにした場合、どれだけ左右に振ってももう真ん中から聞こえてしまうし、

逆に30msec以上にすると、私はどうも壁を作るという意味ではズレが気になってしょうがない。

せめて音量の調整が出来たらいいんですよ。

でもStereoDelayではそれが出来ない。

 

ただまぁ、CubaseでのStereoDelayを使用している私の固定数値というだけなので、

そんな絶対的なものでもないとも思います。

 

ご参考程度にお聞き下さい。

 

 

 

 

音の壁の間を走る、奥行きディレイ

マンドリンに掛けた、もう一つのディレイの設定です。

これの意図は、左右のステレオ化した音の壁の間を通って、奥行きを演出しようというものです。

DelayTime=1/8D(1/8+1/16)にすることで、ディレイタイミングに独特のリズム感を作ることと、

Feedback=30にして、そこそこ余韻を引っ張ろうとしています。

 

センドで送っているので、音の壁を反射しているような設定も出来ます。

その場合は、Cubaseではセンド先のFXトラックのPanをバランスパン→コンバインパンに変更し、

コンバインの間隔を狭めて、PingPongDelayでも掛けてあげれば良いかと思います。

 

今回の場合は、そんなに難しく考えずにストレートに作ろうということで設定してみました。

このMonoDelayのトラック音量は結構下げています。

音が派手なこともあるため、残像が見えれば良い程度にとどめておきます。

 

↑図では、サンプリングされた音とはいえ、

余計な低域が気になったのでローカット用のEQをインサートの「1」に差しています。

 

そして、インサートの「7」に音の壁を作るStereoDelayを差しています。

これはCubaseの構造上、1~6番目までのインサートはそのままセンド先に送られてしまうからです。

ただ、7、8番目のインサートは、センド先には行きません。

つまり、ここに何を差しても送り先にはなんら影響は出ないということです。

 

 

さて、改めて音の配置図を見てみます。

マンドリンの原音にローカットEQを差してはいるものの、

実際は3つの音色にそれぞれディレイを掛けただけです。

 

文章は長くなってしまいましたが、たったこれだけしかしていないのに、

サウンドの表情はこれでがらりと変わってしまう。

 

そして、ステレオ感はともかく、奥行きと聞くとすぐリバーブを連想してしまいがちになりますが、

実際リバーブよりも奥行きとなる道筋をはっきり示せるのがディレイの特徴の一つでもあります。

 

奥が深いですね。

私の使い方も先人あってのものですし、これの応用もいくらでも考えられそうです。

 

 

ドラムがはねるディレイサウンド

 

ちなみに、これはオマケですが、実はドラムにもディレイを薄掛けしていました。

 

これは素のドラム音。

 

これがディレイを掛けたドラムの音です。

 

音がすこしはねているように調節してみました。

スネアの音が帯域的にもわかりやすいのではないかなと思います。

設定は画像の通り。

あまりディレイで主張しすぎないよう、DelayTime=1/8のスタンダード。

Feedback、Mixそれぞれ10に設定。

フィルターはローとハイをカットして無駄な主張を無くしていきます。

 

 

ドラムにディレイを掛けると、

スネアやバスドラがリズムのよいゴーストノートっぽく聞こえるなど、

小刻みなリズムが新たに生まれて躍動感が加わります。

 

 

今回の記事では、ステレオ化のディレイをメインにしていたので、

オマケ扱いしてしまいましたが、リズム隊に掛けるディレイも上手く効かせると

これもまたかなりの演出ができたりします。

 

 

 

 

最後にもう一度サンプルを確認してみましょう。

 

ディレイ前。

 

ディレイ後。

 

 

ドラムにもディレイを掛けていたので、正確にはこうなります。

ドラムの頭に三角帽が被さりました。

いや、記事を書いていって思ったんですけど、改めてディレイって奥が深いなぁ・・・。

基本的な使い方だけでも、これだけ文章書かさるもんなー。

 

[speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]・・・[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]今回ボクら、途中から完全に忘れられてたよね[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii3.jpg” name=”ルイー”]ほんとな[/speech_bubble]

 

 

まとめ

3、音の壁を作り出すステレオ感

  • 原音とディレイ音の位置間隔は、ほぼ左右のLR振り切り。
  • DelayTimeは20~30msecくらいで調整(20msecは個人的に安定数値)
  • Feedbackは0。
  • 中央に薄いディレイを掛けて奥行きを作るとそれっぽくなる

 

おまけ

  • リズム隊に1/8ディレイなど、基本ディレイを薄く掛けると躍動感が生まれる。

 

 

ディレイの基本設定ですが、

この設定の方がしっくりくる!というのは個々それぞれあると思います。

私の記事は、あくまで参考にして頂けたらと思います。

 

 

 

それでは!

 

【ディレイ・Lv4】ディレイで作り出す3つのステレオ感・その1【DTM】

こんにちは、MAKOOTOです。

 

今回と次回に分けて、ディレイを使ってステレオ感を作り出す、そのやり方を書いてみます。

わかりやすくディレイの掛け方の3パターン、

  1. 横の流れを作り出すステレオ感
  2. 音の箱を作り出すステレオ感
  3. 音の壁を作り出すステレオ感

と表現して説明してみます。

 

 

このページでは、まず上の1、2について書いていきます。

 

 

3パターンのディレイを掛ける

 

まずは、ディレイを掛ける前のサンプルがこちら。

 

音色の位置を図で表すとこんな感じです。

  • ドラムとベースは真ん中。
  • メロディを兼ねるシンセリードはLに振り切り。
  • アルペジオのマンドリンはセンターに。
  • 低音のシンセストリングスはRに振り切り。

 

ドラムとベースにはコンプとリミッターを適当にかけていますが、

他の3音色には何もエフェクト等かけていません。素の音です。

 

今この記事を書いていて、なぜ自分はこの音色を選んだのかちょっと謎なんですけど、

細かいことは気にしない方向でいきます。

 

 

では、この謎の音色3兄弟であるシンセリード、マンドリン、シンセストリングスに、

それぞれ違う設定のディレイを掛けてみましょう。

 

結果はこちら。

 

どうでしょうか。

素のままよりもステレオ感が生まれ、全体にまとまりができたのではないかと思います。

これは、上記ヘンテコ3兄弟にただディレイを掛けただけです。

 

図で大雑把に見るとこんな具合です。

私のせいであんまり伝わらないかもしれませんが、

ディレイの効果はかなり凄いんです。

ずっと聴いてると段々良さ気に聞こえてくるからちょっとやばい。

 

 

 

[speech_bubble type=”fb” subtype=”R1″ icon=”ruii2.jpg” name=”ルイー”]なるほど、ディレイってこういう風にも使えるんだな[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]でもこの曲そもそもよくわからない[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]どこで使えばいいかもわからない[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu4.jpg” name=”シブ君”]ボツです[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii4.jpg” name=”ルイー”]いや、そこはもういいだろ・・・[/speech_bubble]

 

シブ君のダメ出しも食らったので、早速ディレイの設定を見ていきます。

 

 

1、横の流れを作り出すステレオ感

一つ目は、左で鳴っているメロディの役割を持つシンセリード音。

 

これが素の音。

 

 

ディレイを掛けたあと。

 

これは、原音をL(左)に振り切り、

ディレイ音だけをセンター(中央)から鳴らして、

ステレオ感を演出しています

 

左で鳴った音を中央にディレイとして返すことで、

オケ(メイン以外の音全体)と馴染ませようということです。

 

 

以下、その設定。

 

 

シンセリードの原音トラックは「Retrologue 02」(↑図、右上)。

まず、ディレイ音のみを鳴らすためのFXチャンネルトラックを作ります。

名前は「L Synth Lead Delay」にして(↑図、右下の水色トラック)、

これに「Retrologue 02」で鳴らした音をセンドで100%で送ります。

(図左の「0.00」は原音と同じ音量という意味)

 

そして、ディレイトラックである「L Synth Lead Delay」にはMonoDelayをインサートしておきます。

1、ディレイ専用のトラックにかかっているインサートエフェクトです。

今回、私は隠し味として「Distortion」も掛けてみました。

 

2、ディレイ音のDelayTime=1/16に設定。

こうすることで、左から中央に音が流れるような感じになります。

 

3、原音を左右に広げるだけなので、最初の音さえあれば良いため、Feedback=0。

 

4、フィルターは掛けないほうが原音のまま出力されるのですが、

シンセ音が若干ハデ目に感じたので、ハイとローを少しカットしました。

 

5、ディレイ音だけを出したいので、Mix=100.0。(センドエフェクトは基本Mix=100です)

 

6、ハイとローのカットにプラスして、ほんとに薄ーくディストーションを掛けて歪ませ、

原音との違いをすんごいうっすら~と出そうとしてます。

0だと全く掛からないので0.1にしてますが、ほぼわからないレベル。

 

7、Toneは、ディストーションを掛ける周波数帯域の幅のことです。

ローとハイをカットしてはいますが、とりあえず全体に掛けるということで、Maxの10.0に設定。

 

8、ディストーションを掛けると聴感的に音量が上がる時があるので、OUTPUTは少し下げめに。

 

 

図右は、原音トラックのフェーダー部分。音を真左から出したいので原音はLに振り切り

図左は、「Sends」つまり送り先の音の位置です。このディレイ音はセンターに調整します。

 

 

そして原音(左トラック)とディレイ音(右トラック)の音量調整。

ディレイ音を、原音の音量のままにすることもありますが、

今回はディレイ音を少し下げて、左から中央への奥行きも少しだけ狙っています。

 

 

 

2、ショートディレイで音の箱的なステレオ感を出す

二つ目は、真右にあるシンセストリングス音。

 

素の音。

 

 

ディレイを掛けた音。

 

このシンセストリングスには、原音はR(右)に振り切り。

ディレイ音は、DelayTimeは30msec(0.03秒)にして、センターに返しています

 

この、100msec以下くらいの極短いディレイタイムでのディレイを、

ショート・ディレイとわかりやすく呼びます。

人によっては50msec以下だったりとか、色々あると思います。

 

この曲はBPM=200で、1拍(1/4)が300msec(0.3秒)

なので、設定した30msecはその10分の1。かなり短めです。

 

これもシンセリードの時と同様で、FXトラックでディレイ音のみ出しています。

DelayTime=30.0、Feedback=0。

こちらに関しては、ほぼ原音をディレイで返す方向なので、フィルターも使いません。

 

原音・ディレイの音量はほぼ同じくらいにします。

こうすることで、流れではなく、音の広がりを確保することになります。

 

↑図の「1」がディレイトラック。定位はセンター。

「2」が原音のトラックで、これはR(右)に振り切り

 

 

そして、少しわかりにくいのですが、ディレイトラックを、原音より若干音量を下げています

これは、原音とディレイ音の音量が同じ場合、

遅れてきた音の方に定位を感じやすい

ということから来ています。

 

 

人間の耳の感覚はそういう風に錯覚する傾向があるということです。

 

 

ただ、これまでの私の体感としては、

音色によっては先に鳴った方に定位を感じやすい

場合も往々にしてあるということ。

 

なので、どちらかの音量を上げ下げして、

なんとなくその中央から音が聞こえてくるポイントを探してあげます。

全く同じ音量」ではなくて「ほぼ同じ音量」と表記しているのはそのためです。

 

 

 

今の時点で簡単にまとめると、

 

音に横の流れを作るなら、ディレイタイムを少し多めにして音量差をつける

シンセリードに掛けたディレイは1/16なので、かなり音の遅れを感じ取ることが出来ます。

タイミングをずらした上で片方の音量を変えると、

  • 「音:大→小」で、遠くに行く感じ
  • 「音:小→大」で、向こうから来る感じ

という流れを擬似的に作り出せるというわけです。

これがステレオ的な横の流れ

 

 

単純にステレオ感を出すなら、原音とディレイ音の音量はほぼ同じにする

原音とショートディレイによってタイミングのズレた音は、

音量が同じ場合、その真ん中から聞こえるというよりは、大体はどちらか寄りに聞こえます。

なので、その定位を調整するため、音量を微調整する必要があります。

 

基本は音量を大きくした方に定位は寄ります

 

 

「音の箱」と冒頭で表現したのは、原音とディレイ音が同じ音量だからなのですが、

DelayTimeによってその真ん中から聞こえるようにするか、

左右両方から聞こえるようにするかも調整できるからです。

横幅の広い箱にするか、細い箱にするか、というイメージですね。

 

DelayTimeを短くすると箱が狭くなり、長くすると箱が広くなります。(ステレオ化)

 

私の感覚だと、

100~50msecだと定位を振ったポイントで原音・ディレイ音がそれぞれ鳴る感覚ですが、

50~20msecだと、振った定位よりも狭目に聞こえて、

20msec以下だと、定位を振っているにも関わらずほぼモノラル化してダブります。

 

 

ただ、2番目に紹介したシンセストリングスのような音色の場合、

倍音の関係もあってあまり細かい設定にしなくとも音が広がったので、

そういう場合は音量調整はそこまで詰めません。

 

役割的には、右でふわ~っと鳴ってればいいかなくらいなので。(笑

 

(倍音成分に関しては、今は割愛します。)

 

 

 

まとめ

1.横の流れを作り出すステレオ感

  • 原音とディレイ音の位置間隔で、音が流れる
  • DelayTimeを短めに取ると、横の流れの歯切れが良くなる
  • 原音とディレイ音に音量差をつけると、奥行きの流れを作り出せる
  • Feedbackは0でも良いが、あっても問題ない
  • 音量調整をするため、ディレイ専用トラックを別で作って、センドで送る

 

2.音の箱的なステレオ感を作る

  • 原音とディレイ音の位置間隔で、ステレオ感の幅が決まる
  • DelayTimeは50msec以下くらいで調整
  • 原音とディレイ音の音量をほぼ同じにする
  • Feedbackは0。
  • 微妙な音量調整が必要。ステレオ感の定位が決まる

 

 

ちょっと長くなってしまったので、続きは次の記事にしたいと思います。

【ディレイ・Lv5】ディレイで作り出す3つのステレオ感・その2【DTM】

 

 

 

それでは!

 

【ディレイ・Lv3】DelayTime=1/2・1/4・1/8の基本調整【DTM】

こんにちは、MAKOOTOです。

前回に引き続き、Delayの使い方を見ていきます。

 

前回の記事:3種類のディレイ「Mono・Stereo・PingPong」とDelayTimeの「TとD」のお話。
【ディレイ・Lv2】押さえておくべき3種類のディレイと、TとDの意味【DTM】

 

今回は、フレーズによってDelayTimeやFeedbackなど、

実際に各パラメータをどのように設定していくと良いのか。

そのヒントになればという記事にしていきたいと思います。

 

ステレオ感を出したり、ダブル効果を生み出したりという、

ある程度決まった設定はあるのですが、まずはディレイに慣れようということです。

 

[speech_bubble type=”fb” subtype=”R1″ icon=”ruii1.jpg” name=”ルイー”]よし、早速試してみるぜ[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]おー、がんばれー(ぼけー)[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii4.jpg” name=”ルイー”]お前、初仕事なのにやる気ないな・・・[/speech_bubble]

 

 

 ディレイに慣れよう

サンプルを用意してみました。

 

音源はEastWestのRAに入っているマンドリンです。

 

下は打ち込んでみたフレーズ。

 

[speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]これ、押さえ方とか大丈夫?[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii2.jpg” name=”ルイー”]知ってるぞ!ヴァイオリンと同じだ![/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii5.jpg” name=”ルイー”]フッ、かっこいいだろ?最近弾いてないがな[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]・・・[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu6.jpg” name=”シブ君”]うん、やっぱいいや[/speech_bubble]

 

 

では、この音源トラックにMonoDelayを直で掛けて、良さそうな響きのポイントを探してみます。

基本の音を1/4の長さで区切っているので、

1/4とその両脇の1/21/8のディレイタイムで聴いてみます。

 

 

DelayTime=1/2

まず、ディレイタイムを1/2にして聴いてみます。

 

うん、のんびりしてて良い感じですね。

 

私の場合、ディレイの基本数値は、

Mixはおおよそ10~30くらいFeedbackは20を基本にしています。

DelayTimeが短い時でわかりやすく余韻を残したい時などは、

Feedbackは40、50くらいまで上げたりします。

 

個人差はあるでしょうし、曲調やオケ(バックの音)にもよりますが、

私は大概、0~50で収めて使用することが多いです。

 

[speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]最初は、これが答えだ!っていうのは特にないから、あんま気にしなくていいよ[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii2.jpg” name=”ルイー”]おっ、優しいなシブは[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu3.jpg” name=”シブ君”]・・・は!?[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii4.jpg” name=”ルイー”]え、何でそこ怒るの[/speech_bubble]

 

 

DelayTime=1/4

次にDelayTimeのみ、1/4。

 

綺麗にまとまった感じです。スタンダードな印象。

 

「Feedback=20」・「Mix=10~20」くらいだと聴感上ディレイ音が4~5回で終わるので、

「DelayTime=1/4」の場合、小節の頭になった音がその小節内で音が収まります。

 

 

DelayTime=1/8

今度は短めの、1/8。

 

ディレイの間隔が速く、きめ細かな印象があり、これもいいですね。

ただ、2小節目(00:02辺り)の「ジャラーン」という全音符の部分に関しては、

DelayTimeのみ狭くしたため、3小節目までの繋ぎが断たれた感じになっています。

 

バックに他の音があればこれでも良さそうですが、

単体で聴く分には間が空いてしまい、少し物足りなさを感じます。

Feedbackを上げて、3小節目に上手く繋げるよう調整してみましょう。

 

 

「Feedback=40」

 

先ほどより2小節目に伸びが生まれました。

ちょっと音が切れるの速いかなーとも感じたので、も少しFeedbackを上げてみます。

 

 

「Feedback=50」

 

2小節目のディレイの伸びは丁度良い感じになりました。

ただ、「Feedback=50」もあるので、今度は他の部分が少しうるさめになったようにも感じます。

 

ここで、2小節目は全音符のままでいきたい!という場合は、Feedback=40か50を選びますが、

それだとちょっとやまびこがうるさいかなー、という場合、Feedbackを下げる方向を考えます。

 

リバーブなどで薄っすら補ったり等、たくさん音を繋げる方法はありますが、

今回は、2小節目を1/2分音符にして、Feedbackを下げてみる形を取ります。

 

[speech_bubble type=”fb” subtype=”R1″ icon=”ruii1.jpg” name=”ルイー”]やさしめでいくぜ[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu4.jpg” name=”シブ君”]うんうん、いいと思う[/speech_bubble]

 

上の図のように、2小節目の上のド#を分割して、

少し気になった部分のベロシティ(音の強さなど)を弄りました。

Feedbackも25の方がいいのかな~と思い始めて、ここも調整。

 

 

DelayTime=1/8、Feedback=25、2小節目の音を分割、他微調整

 

 

トータルの間の繋ぎはさっきよりまとまったかな?という印象です。

「Feedback=50」を聴いた直後なので、

相対的にディレイ音に少し物足りなさを感じてしまったり、

また今度は6小節目の繋ぎが気になりだしたり・・・(笑

 

 

試しにドラムとベースを適当に加えて、

1/2、1/4、1/8のDelayTimeでそれぞれを聞き比べてみます。

 

 

 

DelayTime=1/2、Feedback=15

 

 

 

DelayTime=1/4、Feedback=20

 

 

 

DelayTime=1/8、Feedback=40

 

 

[speech_bubble type=”fb” subtype=”R1″ icon=”ruii4.jpg” name=”ルイー”]ふう・・・ちょっと疲れてきたぜ[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii3.jpg” name=”ルイー”]段々何がいいかわからなくなってきた・・・[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu5.jpg” name=”シブ君”]グー・・・、グー・・・[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii6.jpg” name=”ルイー”]キサマッ!!興味なしかッッ!![/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]あ、うん、1/4でいいんじゃん?[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii7.jpg” name=”ルイー”]おっ、さすがは・・・[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu7.jpg” name=”シブ君”]ボク、四分音符だしね![/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii4.jpg” name=”ルイー”]・・・そういう理由?[/speech_bubble]

 

 

この三つで私が選ぶとしたら、

最初の曲を作る方向性が少しのんびりな感じだったので、

 

1/4パターン > 1/2パターン > 1/8パターン

 

でしょうか。

 

ちなみにこの曲、BPM=100なので、これを200にして2倍速にしてみます。

 

[speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]案外違うイメージが膨らむので、BPM変えるのは割とオススメだよ[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii2.jpg” name=”ルイー”]速いとかっこいい! 速いとかっこいい!![/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu6.jpg” name=”シブ君”]とりあえずルイーがバカなのはわかった[/speech_bubble]

 

 

1/8パターン、BPM=200

あー、これなら1/8でも良さそうかも。

でもドラムが少し余計なリズムを作っちゃってる感もある。

(間のバスドラが少ししつこいかな?)

 

ドラムパターンを少し緩やかにしてディレイは「1/4パターン」にしてみる。

一応比較の為に、それを「1/2パターン」でも書き出してみます。

 

1/4パターン、BPM=200、ドラム変更

 

1/2パターン、BPM=200、ドラム変更

 

こっちのドラムパターンの方がしっくりきそう。

 

BPM=200だと、どのディレイパターンでも良さそうな気がする・・・(笑

 

 

 

[speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]ま、そんなに難しく作ろうと思わなくていいってことだね[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii1.jpg” name=”ルイー”]なるほどな[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii5.jpg” name=”ルイー”]しかし、俺としてはもう少しかっこよくしたいところだが・・・[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]無理すんな、そもそもキミかっこよくないから[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii4.jpg” name=”ルイー”]いや曲のことなんだが[/speech_bubble]

 

まとめ

  • Feedback=20くらいだと、ディレイ音は大体4~5回くらいになる
  • リズムが4/4拍子で、DelayTime=1/4、Feedback=20の場合、小節の頭で鳴らした音はその小節内で鳴りが丁度消えるので、しっくりくることが多い
  • DelayTimeを下げるなら、対照的にFeedbackを上げると音が繋がりやすい(その逆も)

 

[speech_bubble type=”fb” subtype=”L1″ icon=”shibu1.jpg” name=”シブ君”]あとは、色んな曲を聴いて少しずつ使い方を増やしていけばいいよ[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii1.jpg” name=”ルイー”]そうか、わかった[/speech_bubble] [speech_bubble type=”fb” subtype=”R1″ icon=”ruii2.jpg” name=”ルイー”]優しいな、シブは!(また怒るかな)[/speech_bubble] [speech_bubble type=”fb” subtype=”L1″ icon=”shibu7.jpg” name=”シブ君”]そうでしょ!?そうでしょ!?[/speech_bubble] [speech_bubble type=”think” subtype=”R1″ icon=”ruii4.jpg” name=”ルイー”]・・・こいつの思考、全然わからん[/speech_bubble]

 

 

 

というわけで、今回はこんなところでしょうか。

 

 

私の場合はですが、最終的には耳で聞いて、参考の曲などがあればそれを聞き、

また自分で作った曲を聞き返したりなどして、感覚的にしっくりくるところを探します。

 

ディレイのみで色々弄ってみただけでも幾つかパターンが出てきたので、

迷ったら、まずは一つ、良さそうかなというパターンをチョイスして次に進みます。

あとで幾らでも立ち戻ればいいというくらいサクッと決めると、案外進みます。

 

 

わけがわからなくなってきたら、時間を置いて一旦頭をリセットして、また聞く。

リセットをかけて聞き返すと、案外フラットに聞けます。

 

 

そして、これを毎度やっていくと、段々耳や感覚が培われていく。

一例として参考にして頂ければと思います。

 

 

 

それでは!

 

【ディレイ・Lv2】押さえておくべき3種類のディレイと、TとDの意味【DTM】

こんにちは、MAKOOTOです。

 

ディレイ講座第二回目です。

第一回目は、基本的なディレイのパラメータを見ていきました。
【ディレイ・Lv1】基礎パラメータを無駄に細かく説明してみる【DTM】
今回は、基本的なディレイの種類を三つ取り上げて、その効果を確認してみます。

それと、前回説明できなかった、DelayTimeのTとDについても触れてみます。

 

 

三種類のディレイ

ディレイの基本として、Cubaseにも付属されている、

  1. MonoDelay(モノディレイ)
  2. StereoDelay(ステレオディレイ)
  3. PingPongDelay(ピンポンディレイ)

の三種類をここでは取り上げます。

 

 

基本はモノステレオ。次に飛び道具的でピンポン

この三つを押さえておけばディレイに関しては問題ないでしょう。

 

 

 

まずディレイを掛ける前のサンプル原曲を用意してみました。

 

念の為、ディレイ音であまり濁らないよう、メロディをペンタトニックで作っています。

昔のファミコンを思い出させるような感じになっちゃった。

 

 

それでは、この原曲のメロディ部分(8分で鳴っているシンセ音)にそれぞれ、

  1. MonoDelay(モノディレイ)
  2. StereoDelay(ステレオディレイ)
  3. PingPongDelay(ピンポンディレイ)

を掛けて聞いてみます。

 

 

 

1、MonoDelay

モノ・ディレイのサンプル。

 

パラメータは

DelayTime:1/8、Feedback:10、Lo:230程度、Hi:15000(デフォルト値)。

実用的な数字に設定している為、少しわかりにくいかもしれませんが、

薄っすらと音が重なっているな~、という風に感じられればOKです。

これだけで少し奥行きが出て、空間を感じられる効果が生まれます。

 

 

 

2、StereoDelay

ステレオ・ディレイのサンプル。

 

左側を DelayTime:1/8、Pan:-100(真左)、

右側を DelayTime:1/4、Pan:100(真右)にそれぞれ振り、

あとはMonoと一緒の、Feedback:10、Lo:230程度、Hi:15000

左と右で1/8、1/4とずらすことで、左右に音が反射するように聞こえると思います。

これは次のピンポンディレイに相当するずらしとほぼ同じ設定です。

 

ちなみに、左右共に「Feedback=10」としているのは、

ほんとに薄く響きが残っていればいいという認識だからです。

 

上記の場合、左の1/8の方が当然早く音が消えてしまうので、左右の音の余韻を合わせるため、

本来は左のFeedback数値はもう少し上げたほうがいいかもしれません。

が、解説上「見た目をわかりやすく」ということで数値を合わせています。(笑

 

 

 

3、PingPongDelay

ピンポン・ディレイのサンプル。

 

2のStereoDelayをピンポン設定にしたので、2のサンプルとあまりかわらないかと思います。

 

上の赤枠の「Spatial」は左右の広がりのパラメータです。0.0~100.0まで。

0にすると真ん中(モノラル)ディレイになり、

100にすると左右からピンポンします。

 

 

 

そして最後に、

上記の設定のMono、Stereo、PingPongを順にインサートした音源がこちら。

「Mix=20」、つまりディレイ音が4割なので、

こうして三つ重ねるだけで案外ごわんごわんになります。

 

 

以上のことから、ディレイをかけたトラック単体で聞く分には良さ気に聞こえても、

それが複数に増えると、思った以上にゴワゴワになる。

 

これはリバーブも同様ですので、

「楽曲中、音色が多い部分ではディレイ成分は気持ち薄めにしておく。」

こうすると、後々のミキシングがどちらかというとやりやすくなります。

 

 

 

DelayTimeのT、Dについて

T(Triplet)は3連符D(Dotted note)は付点の意味です。

  • 1/4なら4分音符、1/8なら8分音符。
  • 1/4Tなら4分音符の3連、1/4Dなら付点4分音符。

 

1/4T1/4Dで見ていきます。

 

 

Tは三連符

画像で見たほうがわかりやすいので、スクショとってみました。

 

まず、これが1/4。

 

 

これが1/8。

1/4が更に2分割されています。図の中ほどにハイハットが、この8分刻みであります。

 

 

1/4T(3連符)がこれ。

間隔は「(1/4+1/8)÷2=3/16 」ということで、1/4と1/8の中間の長さです。

図下に、Clap音を1/4T間隔で置きました。

上の1/8刻みのハイハットとのズレがわかります。

 

ちょっとややこしいのが、

1/4Tと表記されるので「1/4を三分割したもの」と捉えてしまいかねないのですが、

上の図を見てもわかるとおり、「 1/4T = 1/2を三分割したもの 」となります。

1/4を三分割したものは1/8Tと表記されます。

 

 

 

音で聴いてみましょう。

ディレイをかけたシンセ音と、Clap音(拍手の音)に注目してみてください。

これが1/4T。

 

ディレイの設定は以下の通り。

DelayTimeを1/4T。こだまがギリギリ消えないよう、Feedback・Mixは30くらいに設定してます。

ハイハットの音は1/8刻みなので、リズムの違いがわかるかと思います。

 

ちなみに、Clap音(拍手音)にはディレイはかけていなくて、

フェードアウト気味にベロシティを弄っただけ。

 

実際、打ち込みでディレイと同じような演出は普通に出来ます。

なので、エフェクトとしてディレイを使うか、手打ちで調整して擬似ディレイを演出するか。

原理さえ覚えておけば、やり方は案外自由です。

 

 

 

Dは付点

付点というのは、半分の長さを単純にプラスします

例えば1/4Dならば、「1/4+1/8=3/8」ということです。

 

この図の左上に、1/4を1倍とすると、1/8つまり0.5倍(半分)の長さを足した間隔が1/4D(3/8)。

赤枠で囲ってあるシンバルは1/4D刻みで置いています。

なので、「3/8+3/8+3/8=9/8」という風に、一小節内にはピッタリ収まりきりません。

 

これが付点の特徴。

自身で捉えるまではちょっと慣れが必要かもしれません。

でも、このリズム自体には割と馴染みがあるはずです。

 

 

ディレイをかけたシンセ音と、今度はシンバル音に注目して下さい。

この間隔が1/4Dです。

 

そして、おまけで1/8D間隔のラストに、アクセントとしてスネア音を置いてみました。

小節最後に「・・・パ!」てなる音がそうです。

これだけでも、ちょっとリズムに絞まりができますよね。

ただまぁ、音の定位を全部センターにしてしまっているので、

ごちゃごちゃした感はあります。

 

折角なので、最後にリズム隊の位置を少しだけずらして、軽くバランスをとってみます。(笑

シンセ音には、モノ→ステレオと2つディレイをかけているので、

センターに伸びたディレイ音も含めて左右に振られるため、奥行きがでました。

空間自体はそこまで感じられないかもしれませんが、

少なくとも平面ではなくなった、という感じかと思います。

 

 

 

まとめ

ディレイの種類は、以下3種類が基本。

  1. MonoDelay(モノディレイ):モノラルで鳴らす
  2. StereoDelay(ステレオディレイ):ステレオで鳴らす
  3. PingPongDelay(ピンポンディレイ):左右でピンポン風に鳴る

ディレイは基本、薄めに掛けておくと、後々上手くはまりやすい。

 

そして、

  • DelayTimeのTは3連
  • DelayTimeのDは付点

それぞれ独特のリズムを持つ。

 

 

ということでした。

 

次回は、ディレイの数値の違いを弄ってあーだこーだしたいと思います。
【ディレイ・Lv3】DelayTime=1/2・1/4・1/8の基本調整【DTM】
それでは!

 

【ディレイ・Lv1】基礎パラメータを無駄に細かく説明してみる【DTM】

こんにちは、MAKOOTOです。

今日から、DTMや作曲に関する記事を書いていこうと思います。

 

 

今回は、

ディレイ(Delay)

と呼ばれる、代表的なエフェクトの基本的な使い方です。

 

 

もうすでにこういったエフェクターに関する記事は沢山あると思うのですが、

自身のブログでは、自分の使い方を備忘録として記録しておくという意味も込めています。

 

 

私は大学時代、弓道部に所属していて、それにハマってもう毎日毎日弓引いてたんですけど、

それから数年後、あんなに毎日やってたにも拘らず、

胴着の帯の締め方を忘れてしまっていたんですよ。

 

かなりショックでしたが、こういった経験から、

定期的に基礎知識をおさらいするようにしています。

 

 

ディレイ(Delay)とは

音楽関係・DTMなどで使われる場合を基本想定として書きます。

ディレイDelay)とは、反響音をシミュレートする空間系エフェクターの一種。

出典:Wikipediaより

「こだま」のことですね。「やまびこ」。

今はあまり言わないかもしれませんが、

 

「ヤッホー!」

 

と、山に遊びにいった際に山に向かって叫ぶと、

 

「・・・ヤッホー!・・ヤッホー!・・ヤッホー!

 

という具合に、山や周囲の自然から反響音が戻ってきて、そう聞こえる。
(実際は山に向かってヤッホーしても、そんなわかりやすくは返ってこなかったです(笑))

この原理を、音楽で生かして、サウンドに彩りをつけるのがディレイ効果です。

 

 

●ディレイサンプル

 

コードを4つ鳴らしてます。

前半が原音のみ。後半がディレイをかけたものです。

間に「テンテンテンテン・・・」という響きがあります。

 

これがディレイ効果。これだけでもすでにいい感じになります。スバラシイ。

 

このディレイ、1960年代にはレコーディング業界ですでに使われていたようで、

当初はテープレコーダーでアナログ式にディレイ効果を作っていたとのこと。

当時のエンジニアさんに、その時のお話を伺いたいものです。

 

それでは初めに、使用する際のパラメータを解説していきます。

以下、Cubase付属のDelayを基本にしています。

 

 

 ディレイの基本パラメータ

画像はCubase8.5内蔵のMonoDelayです。

  1. Delay(Delay Time):どのくらいの間隔で次の音(こだま)が発声するか
  2. Feedback:こだまの発声をどのくらい繰り返すか
  3. Low Cut Filter / Hi Cut Filter:どこの周波数からローカット、ハイカットするか
  4. Mix:Dry/Wet(原音とディレイ音)の音量バランスを決める

 

これが基礎パラメータとなります。

プラグインとして、現在色んなディレイがあるかとは思いますが、

名称は違っていても、概ね基礎は上記の通りかと思います。

 

 

 

1、Delay Time

原音からどのくらいの間隔をあけて、次に音(ディレイ音)が鳴るかということです。

一小節を1として考えていて、上記の場合は1/8なので、1/8分音符間隔でこだまが返ってくることになります。

 

テンポ同期の場合、音符の長さ表記で、

  • 1/1・1/2・1/4・1/8・1/16・1/32
  • 1/1T・1/2T・1/4T・1/8T・1/16T・1/32T
  • 1/1D・1/2D・1/4D・1/8D・1/16D・1/32D

という風に用意されていることが多いです。

 

 

上記の図から、syncを押してmsec単位にした場合、

0.1~5000msec(1000msec=1秒)

まで、上のMonoDelayでは設定できました。

 

 

この1/8TとかDとかいうのは、SITE2913さんの文章を引用させて頂きますが、

1/4なら4分音符、1/8なら8分音符のディレイタイム。

1/8Tだと3連、1/8Dだと付点8分です。

Tは3連を意味する「Triplet」

Dは付点8分を意味する「Dotted note」

出典:SITE2913・ディレイタイムのDとTの意味

TやDについては、また別の機会で触れていきますが、

ひとまずは、色々とこだまの返し方を変えられますよー、という認識でOKです。

 

 

 

2、FeedBack

上記DelayTimeの間隔で、2回目・3回目・・・とどのくらいまで繰り返すかを決めます。

このFeedbackの数値は「0.0~100.0」まで設定できます。

 

これはどういう意味かというと、

ディレイの音量を、何%間隔でこだまさせていきますか?

ということです。

ざっくり言えば、数値を上げれば長くこだまして、下げればすぐこだまが消えます。

 

細かく解説すると、上記の場合「DelayTime=1/8」、「Mix=20」の「Feedback=10」なので、

まず原音が音量100%で鳴ります。

その1/8分音符後に最初のディレイ音が原音の40%音量でなり、

その次は10/100、つまり4%で第二ディレイ音が鳴り0.4%で第三ディレイ音が鳴る

という風に小さくなっていきます。

(なぜMix=20で音量40%なのかは、Mixの項目で書きます)

 

そして、

0の場合のみ、一回だけ音が鳴る。

という風に作られています。

 

つまり、プラグインとしてのディレイの構造上、

Feedbackが0でもディレイをトラックに差したら最低一回はディレイ音が鳴る

これは、最初のディレイ音のみ、Mixで設定した数値の音量で鳴るということ。

それ以降はFeedbackの数値に依存します。

 

 

また、Feedbackが「100.0」の場合、

ディレイ音が次の音もそのまた次の音も、音量100%設定されているので、

減衰されず、いつまで経っても音が鳴りやみません。

 

「Feedback=100」での音作りに、Sleepfreaksさんの面白い動画があります。

Feedbackに関しては、聴感覚的にはこの数字の通りだ!

とはいまいち来ないかもしれません。なので、

どのくらい音が残るか、すぐ消えるか

そういう感覚で数値を設定してあげた方が良いかと思います。

 

 

 

3、Low Cut Filter / Hi Cut Filter

ディレイ音の高域や低域を調整するためのフィルターがついてます。

Steinbergのプラグインの説明では、「Lo Filterは低域をフィルタリング」とあるので、

Low Cut Filterと言っても差し支えないと思ったので、わかりやすくこう表記しました。

 

Loは10~800Hz、Hiは1,200~20,000Hzまで設定出来ます。

下は、イメージ図です。

これがローカット。設定した数値から下をカットします。ハイパスともいいます。

 

これがハイカット。設定した数値から上をカットします。ローパスともいいます。

 

 

ちなみに、ハイカット=ローパスという意味ではあるのですが、

どっちかで統一した方がわかりやすくない?という疑問を以前はよく抱いていました。

知識が定着するまで最初はこんがらがったのを覚えています。

 

これは、例えば「高域をカットしたい!」という意向が強いと、ハイカット。

「低域をメインにして、それ以外はいらないから削除したい」という意向が強いと、ローパス。

 

つまりは、「今自分が何を主軸に見ているか」という視点から、

こう表現を分けているのではないかと思われます。

 

 

 

4、Mix

Dry/Wetの割合のことを言います。数値は0.0~100.0まで。

 

Dry(ドライ)は原音

Wet(ウェット)は効果が掛かった音(エフェクトなど)

 

ということ。つまり、

0の場合、原音しか鳴りません。(左に振り切る)

100だと、ディレイ音しか鳴りません。(右に振り切る)

 

音の鳴るトラックにディレイを直接エフェクト使用(インサート)する場合、

このDry/Wetの比率でディレイ音と原音の割合を決めることになります。

 

 

ここで一つ注意点。

 

「原音とエフェクト音の割合」とCubaseのヘルプに書いてあるので、

例えば「Mix=30」にしたとして、原音の方が大きいことになり、

単純にディレイ音が「30%」、原音は「70%」の音量ということなんだろうと

最初私は思っていました。

 

が、実際RMS数値を測ってみると、どうやらその割り振りではなかった。

  • 「Mix=0」の場合、原音100%・ディレイ音0%。
  • 「Mix=50」の場合、原音100%・ディレイ音100%。
  • 「Mix=100」の場合、原音0%・ディレイ音100%。

つまり、

  • 「Mix=0~50」の間は、原音は常に100%固定で、ディレイ音が0~100%で変化する。
  • 「Mix=50~100」の間は、原音が100~0%で変化し、ディレイ音は常に100%固定。

という風にMixのつまみが調整されていることがわかりました。

 

 

私はこれまで、リバーブとディレイのMixの意味を同じように捉えていたので、

リバーブ同様、ディレイも原音の音量を変えないよう、センドで送ってのみで使っていたのですが、

調べた結果によると、リバーブのMixとディレイのMixは構造が違うことがわかった。

 

 

直差しであってもディレイの「Mix=0~50」の間ならば原音の音量が変化しない

「Mix=0~50」で「ディレイ音が0~100%」なのだから、

  • 「Mix=20」なら、相対的にディレイ音は40%。原音は100%。
  • 「Mix=38」なら、ディレイ音は76%。原音は100%。

ということになります。理論上は。

 

 

 

まとめ

ディレイの基礎パラメータは、以下4つがメイン。

  1. Delay(Delay Time):どのくらいの間隔で次の音(こだま)が発声するか
  2. Feedback:こだまの発声をどのくらい繰り返すか
  3. Low Cut Filter / Hi Cut Filter:どこの周波数からローカット、ハイカットするか
  4. Mix:Dry/Wet(原音とディレイ音)の音量バランスを決める

 

ディレイのパラメータの基礎はこれでばっちりです。

 

次は、このディレイの実際に使ってみた基本的な内容の記事となります。

あと、今回では触れられなかったディレイタイムのTとDについて。

【ディレイ・Lv2】押さえておくべき3種類のディレイと、TとDの意味【DTM】

 

 

それでは!

 

【作曲】BPMを一個掘り下げてリズム作りに生かしてみる【DTM】

こんにちは、MAKOOTOです。

 

パソコンなどで音楽を作ったことのある人なら一度は見たことのある、

BPMというもの。

 

これは一体なんぞや?

ということなのですが、音楽でいうとこれは

 

曲のテンポ・速さ

 

のことです。

数値化した単位としてこれを音楽界では「BPM」と呼んで使っています。

 

今回は、このBPMを作曲をしていく上で、

どう意識して取り入れていくかを見ていきたいと思います。

 

 

BPMとは

Beats Per Minute

  • 音楽で演奏のテンポを示す単位。ビート・パー・ミニット。
  • 医学で心拍の速さを示す単位。

出典:Wikipedia BPMより

 

BPMとは、「Beats Per Minute」の略で、

一分間にどれだけのリズムが刻まれているか

ということになります。

 

これは医学用語でも使われているようです。

またもう一つ、私は調べるまで知らなかったのですが、

ランニングをする方も走るリズムに合わせてということでBPMを意識するみたいです。

 

私も長距離ランナーだったので、なにか近いものを感じる。

走るテンポに合わせて曲のBPMも合わせる、という具合でしょうか。

 

 

音楽リズムの個人的見解

早速噛み砕いていきます。

私が使用しているCubase 8.5では、プロジェクトファイルを開くと、

 

基本値が

BPM=120

4/4(4分の4拍子)

と設定されています。

 

これは、

1小節内に4回ビートが刻まれるのを基本として、

それが一分間の間に120ビート刻まれる想定ですよー

ということです。

 

なぜ、一分間に刻まれるビートを基本に、

音楽ではテンポの単位として使用しているかというと、

BPMが医学用語として使われているという逆説から、

心臓の鼓動音を基準として考えたからなのではないかと思っています。

 

まぁ、人間何を基準にノリとかリズムといったものを言い表すかといったら、

やはり心臓の脈打つ鼓動音が最も身近なのだと思います。

 

生まれる前は、母親の心臓の鼓動音を聞いていたわけですし。

 

 

ちなみに人間の心臓鼓動回数は、

平常時の平均が60~70回

だそうです。

それがそのまま「BPM=60~70」として言えます。

 

そして、この心臓の鼓動回数がBPM=100を越えるくらいだと、

緊張していたり、文字通りドキドキしている時がこのくらいだそうです。

 

 

DAW(作曲ソフト)であるCubaseのデフォルトがBPM=120なのですが、

そう考えると大分速い設定になりますね。

 

これは、現代の人間が音楽を楽しむという時には、

BPM=120という数値が心臓の鼓動音より幾分速いということから、

音楽から刺激を得よう

という欲求があるからなのではないかと。

 

これはあくまで私の個人的な見解なので、

科学的にこう!という根拠がはっきりあるわけではないです。

 

ただ、人がなぜ音楽を求めて、それを楽しむ文化があるかと考えたりするのは、

自分が曲を作る上では必要な考えだろうと思っています。

 

好きなんですよねー、こうやって色々考えるのが(笑

 

 

 音楽でのBPM

具体的に数字を並べてみます。

4/4(4分の4拍子)を基準としたBPMとその秒数です。

BPM 1小節の秒数(seconds) 1拍の秒数(seconds)
60 4.0 1.0
80 3.0 0.75
100 2.4 0.6
120 2.0 0.5
140 1.714 0.4285
160 1.5 0.375
180 1.333 0.33325
200 1.2 0.3
240 1.0 0.25

 

実際にサンプル音源で聴いてみます。

「どっ たん どっ たん」という4つの刻み、4分の4拍子です。

 

・BPM=60

サンプルはドラムですが、ほんとに緩やかな感じの曲調になります。

心臓の通常鼓動音とほぼ一緒なので、眠りに入るくらいのリズムに良いかもしれません。

人間が起きた状態でリラックスできるのは、大体70~80くらいではないでしょうか。

 

 

・BPM=120

軽快で、少しウキウキしたような曲調。

遅いかと言われるとそうでもないし、別段速いわけでもないという体感。

ちなみに少し上のBPM=140はクラブ系の基本BPMとされているようです。

人間がリズムにのれる一番気持ちの良いポイントがこの辺りのようです。

 

 

・BPM=180

ロックミュージックのノリの良い曲など、この周辺に多い感じがします。

これに8分刻みのメロディを乗せるだけで、ノリノリになれます。

ただし、身体が慣れてない場合、このリズムを刻むのは結構疲れます。

 

 

・BPM=240

4分の刻みだけで十分速いです。

身体でリズムを刻もうとすると、すぐ疲れてBPM=120で刻んで丁度良い、

という感じでしょうか。

8分でも十分速く感じますが、これの16分刻みを平気でこなす超絶技巧レベルがいます。

 

 

ちなみに、

BPM=30だと、

「ど~~~~~~っ、た~~~~~~~~ん」

という風に、Mr.4並にかな~り遅く感じます(笑

どこでリズム合わせればいいか即座にわからないレベル。

 

 

BPM=300

CubaseのBPM最高値が300ですが、もはや身体で刻むと壊れそうな印象です。

これより速い速度でとなると、

1小節内の4分を、8分にして表現するしかなくなります。

 

 

上記は単なる例ですが、

BPM=60の場合、この「どっ」が丁度1秒。

BPM=240だと、これが0.25秒。かなり速いです。

 

 

大雑把にBPMを分けてみましたが、

基本的にはこのBPMの数値で曲調が把握できます。

 

ただし、実際はBPM以上にリズムの速度の違いを体感する曲がほんとに沢山あります。

同じBPMでも、8分刻みや16分刻みを織り交ぜるだけでリズムがガラリと変わる。

また、ピアノソロや古いオーケストラ楽曲など、常時リズムが揺れている楽曲もあるので、

BPMはあくまで目安として見るくらいで良いかと思います。

 

 

BPMを意識する理由

さて、楽曲のテンポだけでいえば、話はここで終わるのですが、

なぜBPMを意識しようということを記事にしたかというと、これには理由があります。

 

上のバスドラムとスネアの単音が、それぞれ0.3秒分のデータだったとします。

・BPM=200

1拍0.3秒なので、バスドラとスネアの音が丁度くっついて聞こえます。

そのため特に違和感はないのですが、

これをサンプルはそのままにテンポだけ変えて、例えばBPM=120にすると、

 

・BPM=120

うーん、バスドラの元々のリリースが短いのでちょっとわかりにくいかもしれませんね。

 

音のサンプルを0.3→0.2秒で聴いてみましょう。

お、これならわかりやすい。かなり歯切れがよくなっていますね!

 

 

DAWなどで曲を作る際、例えばオーディオデータを並べて単純にBPMだけ大きく変えた場合、各音のリリース(音の鳴りが消えるまでの長さ)によって、

 

前で鳴っている音が消える前に次の音が鳴り、それが一時的に重なって

意図せず音圧が上がってしまう、ごちゃごちゃした印象になる

 

もしくは、

前で鳴っている音が早めに消えてしまい、次の音が鳴るまでに間が空いてしまって、

意図しない分離感が出来てしまう

 

ということが起こります。

 

意図しない音圧の上がりは、リミッターをかけた時に歪みが強く出やすいですし、

分離感は、リバーブなどでくっつけようとして余計な響きを追加してしまったり等、

極端に言えば、取り繕うのに後々めんどくさくなります。(笑

 

 

ただ、楽曲を作っている場合は基本的に音が重なり合うものなので、

そこまで音のリリースに神経質になる必要はないですし、

リリースが短めの場合でも、歯切れがよくてそのままハマることも多い。

 

どの道、楽曲を作っていく上でのトライ&エラーは続くのですが、

 

音が何秒鳴ってて、何秒だと小気味良くリズムを感じるか

 

を頭の片隅で知っているだけで、

同じBPM(テンポ)でも、リズムの作り方に幅が出来ます。

 

実際はジャンルによってその都度調整していく必要があるとは思いますが、

その基本的なことをまずは押えておこう!

ということでした。

 

 

まとめ

・BPMは、曲のテンポを決める速さの目安

・BPMがわかると、小節・拍の秒数がわかる

・一音の長さを長くすると、リズムが緩やかに感じる

・一音の長さを短くすると、リズムの歯切れがよくなる

 

 

 

この各音の長さの具体的な秒数がわかると、

コンプやリバーブなどのエフェクトをかける際にも参考になるので、

感性だけに頼らなくてもよくなります。

 

長めの音を急に短くした時、毎回新鮮に感じるので記事にしてみました。(笑

もし「あーなるほどねー?」って思って貰えたらそれだけで十分です。

 

それでは!