記号・数字 A B D I M P Q R S V W あ行 か行 さ行 た行 な行 は行 ま行 や行 ら行 わ行
-記号・数字- |
μ-Law
ジュネーブ勧告(G.711)によって規定されたボイス信号の圧縮アルゴリズム。G.711 勧告では、μ-Law は 16 ビットの PCM 信号を非線形の 8 ビット形式にエンコードする方法として定義されている。このアルゴリズムは、ヨーロッパとアジアの電気通信業界で広く使用されている。µ-Law は A-Law によく似ていますが、使用されるコーダ/デコーダが多少異なる。
A-Law
ジュネーブ勧告(G.711)によって規定されたボイス信号の圧縮アルゴリズム。G.711 勧告では、A-Law は 16 ビットの PCM 信号を非線形の 8 ビット形式にエンコードする方法として定義されている。このアルゴリズムは、米国での通信に一般的に使用されている。A-Law は μ-Law によく似ているが、使用されるコーダ/デコーダが多少異なる。
ACM(Audio Compression Manager)
Microsoft の ACM は、Windows 用のオーディオ圧縮と信号処理の標準インターフェイス。ACM を Windows プログラムで使用して、.wav ファイルの圧縮と解凍を実行できる。
ActiveX
異なるプログラム間で情報を共有するための Microsoft の技術。ActiveX は Microsoft Windows ベースのアーキテクチャを拡張し、インターネットおよび企業イントラネット機能を包含するものである。開発者は ActiveX を使用して、プログラムと WWW ページにユーザー対話機能を追加することができる。
ADPCM(Adaptive Delta Pulse Code Modulation)
オーディオ データを圧縮する方法の 1 つ。ADPCM を使用した圧縮理論は標準となっているが、その実装にはさまざまなアルゴリズムが用いられている。例えば、Microsoft の ADPCM アルゴリズムは、IMA(International Multimedia Association)承認の ADPCM とは互換性がない。
AIFF(Audio Interchange File Format)
Apple Computer 開発のオーディオ ファイル形式。
ASF(Advanced Streaming Format)
「Windows Media 形式」参照。
ASX ファイル
ASF ストリーム リダイレクタ ファイル。「リダイレクタ ファイル」参照。
BPM(Beats Per Minute)
曲のテンポは、1 分間のビート数として表すことができる。テンポが 60 BPM の場合は、毎秒 1 回ビートが発生する。
DC オフセットは、サウンド カードなどのハードウェアによって、録音されたオーディオ信号が直流電流の影響を受けるときに発生する。この電流により、録音された波形がベースライン(-∞)付近からずれることがある。DC オフセットを含むファイルにサウンド エフェクトを適用すると、ずれが発生するなど予想しない結果になる場合がある。Sound Forge ソフトウェアでは、サウンド ファイルのサンプルに定数値を追加することによって、この DC オフセットを補正する。
以下の例で、赤い線はベースラインを表す。下の波形は DC オフセットを表している。波形の中心がベースラインから約 2 dB 上にずれている。
DirectX
マルチメディアの開発用に Microsoft によって設計されたアプリケーション プログラミング インターフェイス セット。Sony ノイズ除去 DirectX プラグインなどの DirectX プラグインは、DirectX Media Streaming Services(DMSS)API を使用している。DMSS は標準 API であるため、DirectX プラグインは DMSS をサポートするあらゆるアプリケーションで使用できる。
DSP(Digital Signal Processing)
デジタル データの加工を表す一般的な用語。シグナル プロセッサは、アナログ電子機器の領域でかなり以前から存在する(トーン コントロール、ディストーション ボックス、ワウワウ ペダル)。デジタル シグナル プロセッサは、プログラミングと数学技術を使用してデジタル化したデータを加工する。DSP 技術は、イコライゼーションやリバーブ シミュレーションなど多数のエフェクトを実行するために使用される。
ほとんどの DSP は加算や乗算など単純な算術演算によって実行されるため、DSP 演算はコンピュータのプロセッサでも専用の DSP チップでも実行できる。DSP チップが数学関数の実行に特別に最適化されているのに対して、コンピュータのマイクロプロセッサは最適化されていないという違いがある。この結果、処理速度に差が出る。
InterVoice サウンド ファイルのサポート
InterVoice サウンド ファイル形式(.IVC)は、通常、電話アプリケーションで使用される。この形式がサポートされ、G.711 μ-Law および A-Law、G.721 ADPCM(32 kb/s)、および G.723 ADPCM(24 kb/s)の各データ形式が含まれるようになった。
Inverse Telecine(IVTC:インバース テレシネ)
テレシネとは、プルダウン フィールドを追加して、24 fps(映画)ソースを 30 fps ビデオ(テレビ)に変換するプロセスである。つまり、インバース テレシネとは、プルダウン フィールドを除去して、30 fps(テレビ)ソースを 24 fps ビデオ(映画)に変換するプロセスを指す。
MCI(Media Control Interface)
Windows プログラムで、サウンド カードや CD プレーヤーなどと通信するための標準的な方法。デバイスに MCI デバイス ドライバがある場合は、ほとんどの Windows マルチメディア ソフトウェアによって簡単に制御できる。
Microsoft Sound Mapper
あるサウンドを再生するために最も適切なサウンド カード(マップ)を選択しようとする特別なデバイス。または、そのサウンドを、装備されているサウンド カードで再生できる形式に変換する。
MIDI(Musical Instrument Device Interface)
任意の MIDI 互換デバイス間の通信に使用する制御メッセージの標準言語。シンセサイザから照明、工場の設備に至るまで、MIDI を通じて制御できる。Sound Forge ソフトウェアでは、MIDIを使用して、サウンド ファイルの再生開始、サンプラーへのオーディオ データの転送、および外部ソフトウェアまたは周辺機器との同期を行う。
MIDI クロック
MIDI デバイス固有のタイミング基準。MIDI タイムコード(MTC)のような絶対時間とは異なり、4 分音符あたりの「ティック」数で、テンポに依存する。MIDI クロックは、曲中でテンポを変化させるときに必要なデバイスを同期するときに便利である。
MIDI コントローラ
特殊な種類の MIDI メッ
セージ。Sound Forge ソフトウェアでは、MIDI コントローラを使用して、イベントのトリガとサウンド ファイルの再生を行う。送信されるコントローラ メッセージについては、使用している MIDI 送信デバイスで確認する。
MIDI タイムコード(MTC)
MIDI 1.0 仕様に追加された情報。MIDI 対応アプリケーションを同期するための絶対時間を指定する方法を提供する。MTC は本質的には、SMPTE タイムコードの MIDI 表現である。
MIDI チャンネル
MIDI では、16 個の個別のチャンネルでデータを送信できる。MIDI トリガでは、トリガの受信時にどの MIDI チャンネルを確認するかを Sound Forge ソフトウェアが認識している必要がある。Sound Forge ソフトウェアでこの情報が送信されるチャンネルは、MIDI メッセージを送信するデバイスによって異なる。
MIDI ノート
特殊な種類の MIDI メッセージ。Sound Forge ソフトウェアでは、MIDI ノートを使用して、イベントのトリガとサウンド ファイルの再生を行う。MIDI ノートはあらゆる MIDI シーケンサまたはコントローラから送信される。
MIDI ポート
MIDI ハードウェア上の物理的な MIDI 接続端子のこと。このポートには、MIDI 入力、MIDI 出力、MIDI スルーがある。コンピュータに、MIDI タイムコードを外部デバイスに出力したり、外部デバイスから MIDI タイムコードを受信するための MIDI 対応カードが搭載されている必要がある。
Musical Instrument Device Interface(MIDI)
任意の MIDI 互換デバイス間の通信に使用する制御メッセージの標準言語。シンセサイザから照明、工場の設備に至るまで、MIDI を通じて制御可能である。Sound Forge ソフトウェアでは MIDI を同期目的で使用する。
PCM(Pulse Code Modulation)
非圧縮のオーディオ信号の最も一般的な表現形式。これは、デジタル ストレージを使用するときに最も再現性の高いコーディング方法である。PCM は、.wav および .aif ファイルの標準形式である。
CD プレーヤーは、Q チャンネルを使用して楽曲の再生時間を表示する。Q チャンネルは、3 つのモードに分類される。
-
モード 1: ディスクの先頭からの演奏時間(合計ディスク時間)とトラックの先頭からの演奏時間(トラック相対時間)を含む。
-
モード 2: トラック番号、トラックの録音者、録音場所、録音年を識別する。
-
モード 3: ディスクの UPC メディア カタログ番号を識別する。
特殊なモードの Q データは、リードイン エリアに保存されている。この Q データには、2 チャンネル形式と 4 チャンネル形式のどちらか、コピー プロテクト、プリエンファシスに関する情報が含まれている。
RTSP(Real-Time Streaming Protocol)
ストリーミング メディアのブロードキャストを制御するための規格案。RTSP は、RealNetworks および Netscape を含む多数の企業によって検討された。
SCSI(Small Computer Systems Interface)
コンピュータにデバイスを接続するための標準インターフェイス プロトコル。SCSI バスには、CD ROM ドライブ、ハードディスク ドライブ、サンプラーなど、最大 7 つのデバイスを一度に接続できる。
SDMI(Secure Digital Music Initiative)
レコード業界および技術関連企業によって、デジタル ミュージックを安全に配信するための規格を開発するために組織された団体。SDMI 仕様は、高品質のデジタル ミュージックを簡単に入手したいという消費者の要求に応えるもので、アーティストの作品の著作権を保護し、音楽関連企業と技術関連企業がビジネスを成立させるのに十分な機能を持つ。
MIDI Sample Dump Standard とは、サンプルを音響機器間で転送する方法の 1 つである。SDS で転送されたサンプルは、31,250 Hz ボーの MIDI データ レートで MIDI ケーブルを経由して送信される。さらにより高速なサンプル転送手段として SMDI がある。
SMDI(SCSI MIDI Device Interface)
音響装置間の通信のために設定された標準化プロトコル。情報の転送に、低速の標準 MIDI シリアル プロトコルではなく、SCSI バスを使用する。高速な SMDI は、サンプル ダンプによく使用される。
SMPTE(Society of Motion Picture and Television Engineers)
SMPTE タイムコードは、デバイス間の同期を取るために使用される。タイムコードは、時間:分:秒:フレームの形式で計算される。フレームは、フレーム レートを基準とする 1 秒あたりのフレーム数である。SMPTE タイムコードのフレーム レートは、24、25、29.97、30(フレーム/秒)である。
VMR(Virtual MIDI Router)
プログラム間で MIDI データをやり取りするためのソフトウェアのみのルーター。Sound Forge ソフトウェアでは、VMRを使用してMIDI タイムコードの受信と MIDI クロックの送信を行う。VMR には MIDI ハードウェアやケーブルは必要ないため、ルーティングは同一 PC 上で実行されているプログラム間でのみ実行される。Sony は、Sound Forge ソフトウェアに Sony Virtual MIDI Router という VMR を提供している。
Microsoft および IBM によって開発されたデジタル オーディオ規格。非圧縮の 1 分間のオーディオに 10 MB のストレージが必要である。
Microsoft の Windows Media ファイル形式は、オーディオおよびビデオのほか、スクリプト、URL フリップ、画像、HTML タグなどのデータを処理できる。
アタック
サウンドの先頭の部分のこと。打奏的なサウンド(ドラム、ピアノ、ギターのプラッキング)のことを、「アタックが速い」という。これは、サウンドが非常に短い時間で最大振幅に達するということを意味する。音量がゆっくりと大きくなるサウンド(弦楽器と管楽器)のことを、「アタックが遅い」という。
圧縮比は、指定のスレッショルドを上回る、入力レベルと出力レベルの量の比率を制御する。この圧縮比によって、出力を 1 dB 上げるには、信号がスレッショルドをどのくらい上回る必要があるかが決定する。例えば、圧縮比が 3:1 の場合は、出力レベルを 1 dB 上げるためには、入力レベルを 3 dB 上げる必要がある。
スレッショルド = -10 dB
圧縮比 =
3:1
入力 = -7 dB
出力 = -9 dB
入力がスレッショルドより 3 dB 大きく、圧縮比が 3:1 であるため、結果の信号は、スレッショルドより 1 dB 大きくなる。
圧縮比(ファイル サイズ)
元の圧縮前のファイルと圧縮後のファイルのサイズの比率。例えば、圧縮比が 3:1 の場合は、圧縮後のファイルは元のファイルの 1/3 のサイズになる。
アナログ
オーディオの場合は、音波の圧力変動に類似した電圧変動で音波を再生する方式を指す用語。この方式は、サンプル時間で個別に変化を発生させるのではなく、変動が無限に変化するという点で、デジタル録音と異なる。「クオンタイズ」参照。
アンプリチュード モジュレーション
サウンドの振幅(ラウドネス)が時間に沿って変化するプロセス。AM と略される。ゆっくりと変化すると、トレモロ エフェクトが発生する。モジュレーションの周波数が高い場合は、音色を大きく変化させる多くの側周波数が作成される。
イコライゼーション(EQ)
サウンド ファイルのイコライゼーションとは、特定の周波数帯のレベルを上下する処理のことである。
上書き編集
切り取り、削除、ミキシング、およびその他のすべてのプロセスが実際にサウンド ファイルに対して実行される編集の一種。Sound Forge ソフトウェアでサウンド ファイルのセクションを削除するたびに、ディスク上のサウンド ファイルからそのセクションが削除され、その状態で実際に再書き込みされる。この機能は非破壊編集とは異なる。
高周波音を低サンプル レートでデジタル録音したときに発生するディストーションの 1 種。例えば、自動車が走っているビデオで、自動車は高速で前方に移動しているのに、ホイールがゆっくりと逆回転しているように見えるのは、エイリアシングの影響である。同様に、サンプル レートの半分より高い周波数音(ナイキスト周波数)を録音しようとすると、高い音の代わりに低周波のランブル音が聞こえる場合がある。
エイリアシングを防ぐために、録音前に高周波音を除去するアンチエイリアシング フィルタが使用される。録音後にエイリアシング ディストーションを削除するのは、サウンドから他の周波数も除去しないかぎり不可能である。サンプル レートを下げてリサンプリングするときは、同一のアンチエイリアシング フィルタを適用する必要がある。
エンディアン(リトル/ビッグ)
コンピュータのマイクロプロセッサが使用するマルチバイトのデータの順番を示す。リトル エンディアンは、データが低バイト形式から高バイト形式に保存されるように指定する。この順番は Intel マイクロプロセッサで使用されている。ビッグ エンディアンは、データが高バイト形式から低バイト形式に保存されるように指定する。この順番は Motorola マイクロプロセッサで使用されている。
オーディオ イベント検出機能
オーディオ イベント検出機能はスクラブ機能に似ている。ただし、サウンド ファイルを低速で再生するのではなく、カーソル位置のあたりで再生をループさせる。カーソル位置を選択するには、Sound Forge の[概要]ウィンドウでカーソルをドラッグする。
オブジェクトのリンクと埋め込み(OLE)
複数の独立したアプリケーションを、緊密に統合された 1 つのアプリケーションのように動作させる、Microsoft によって開発された技術。この技術によって、Sound Forge オーディオ ファイルなどのオブジェクトを、Microsoft Word 文書など、別のアプリケーションのファイルに統合できる。
音響シグニチャ
システムの音響シグニチャとは、システムのすべてのサウンド特性を含むデータのことである。リバーブ時間、周波数応答、その他の音質なども含まれる。アコースティック ミラーで使用されるインパルス ファイルは、音響シグニチャであると考えることができる。
概要
タイトル バーのすぐ下にあるデータ ウィンドウ内の領域。概要の全長はサウンド ファイル全体を表す。カーソル、選択範囲、および位置の各情報が、サウンド ファイルの全長との対比で示される。
カットオフ周波数
フィルタのカットオフ周波数とは、フィルタがその応答を変化させる周波数である。例えば、ローパス フィルタでは、カットオフ周波数より大きい周波数は減衰されるが、カットオフ周波数より小さい周波数には変化はない。
計測値を計数値に四捨五入するプロセス。特にオーディオに関しては、アナログをデジタルに変換するプロセスを実行する機能である。アナログ オーディオ信号の電圧の連続変化は、デジタルの 2 進数によって表される振幅計測値にクオンタイズされる。これらの値を示すために使用可能なビット数によって、クオンタイズの解像度と精度が決まる。例えば、8 ビットのアナログ-デジタル コンバータがある場合は、可変アナログ電圧は 256 個の計測値の 1 つにクオンタイズする必要がある。16 ビットのコンバータには 65,536 個の値がある。
アナログ信号をデジタルで表現した結果生ずるノイズ(「クオンタイズ」参照)。ビット深度が低い低解像度のデジタル サウンドや「シーー(shhhhh)」のようなサウンドで、オーディオの
再生中に最も聞こえやすいノイズである。このノイズは、フェード アウト中など、信号のレベルが低くなったときにより顕著になる。
クリッピング
サウンドの振幅が録音レベルの上限を超えたときに発生する。デジタル システムでは、クリッピングはデータを最大値(16 ビット データでは 32,767)に丸める場合に発生する。クリッピングによりサウンドの歪みが発生する。
クリップボード
サンプル データをデータ ウィンドウから切り取ったりコピーしたときに、そのデータが保存される場所。クリップボードに保存されたサンプル データは、別のデータ ウィンドウで貼り付け、ミキシング、またはクロスフェードすることができる。このサンプル データは、Sound Recorder など、クリップボードのサウンド データをサポートする他の Windows アプリケーションでも使用できる。
クロスフェード ループ
サンプル ループは、既存の音源からは簡単に作成できない場合がある。そのような場合は、クロスフェードをループの最初と最後に適用し、両者間のトランジションがスムーズになるようにする。クロスフェード ループ機能は、ループさせるのが難しい音源でサンプル ループを作成するための手段となる。
2 つの曲の一方をフェード アウトさせ、もう 一方をフェード インさせてミキシングすること。
減衰
信号レベルの低下のこと。
フーリエ変換とは、波形を時間ドメインから周波数ドメインに変換するために使用される数学的な手法である。
フーリエ変換では多くの計算を必要とするため、FFT と呼ばれる手法を使用してスペクトル分析を実行するのが一般的である。FFT では、数学的なショートカットを利用することによって処理時間を短縮することはできるが、分析サイズが制限される。
FFT サイズとも呼ばれる分析サイズは、分析で使用されたサウンド信号のサンプル数を示し、個別の周波数帯数も決定する。使用されている周波数帯数が多い場合は、帯域幅が小さくなるため、より正確な周波数の読み取りが可能になる。
コーデック(Codec)
Coder/Decoder:データを圧縮および解凍する技術を指す。コーデックという用語は、ソフトウェア、ハードウェア、または両技術の組み合わせを表す場合もある。
コーラス
信号を、自身のモジュレーション ディレイ コピーと結合することによって作成されるエフェクト。このエフェクトは、複数のソースが同じサウンドを生成しているように錯覚させる効果を生み出す。
各コンピュータにはナンバー プレートのように一意の番号が割り当てられている。アクティベーション コードは、この番号を基に作成される。このコードはコンピュータ ID に基づいているため、実際に Sound Forge ソフトウェアを使用するコンピュータにインストールすることが重要である。コンピュータ ID は自動的に検出され、ソフトウェアのインストール時に表示される。
コンピュータ ID は登録用にのみ使用される。コンピュータ ID によって、Sony が個人情報にアクセスできるということではない。また、ソフトウェアを使用するための有効番号の生成以外の目的で使用されることはない。
サウンド カード
コンピュータと外部機器を接続するためのオーディオ インターフェイス。アナログ信号をデジタル信号に、またはその逆に変換する役目を果たす。現在では数多くのサウンド カードが市販されており、さまざまな質や価格帯から選ぶことができる。Sound Forge ソフトウェアは、Windows 互換のサウンド カードに対応している。
サンプラー
サウンドをデジタル録音するデバイス。理論的には、サウンド カードもサンプラーであるが、この用語は通常、サンプル ピッチの変更中にサンプルをトリガおよび再生するために使用するデバイスを指す。
サンプル サイズ
「ビット深度」参照。
サンプル ダンプ
サンプル データを音響機器間で転送するプロセス。デジタル サウンドの保存には大量のデータが必要になるため、MIDI Sample Dump Standard(SDS)を使用した場合は、サンプル ダンプには非常に長い時間がかかることがある。ただし、より高速な SCSI MIDI Device Interface(SMDI)プロトコルを使用すると、サンプル ダンプの実行時間は数倍速くなる。
サンプル レート(サンプリング レートまたはサンプリング周波数とも呼ばれる)とは、サウンドの格納に使用する 1 秒あたりのサンプル数のことである。44,100 Hz などの高いサンプル レートは、11,025 Hz などの低いサンプル レートと比較して、音源に極めて近いオーディオを作成できる。ただし、サンプル レートが高いほど、必要な空き容量も大きくなる。
以下の例で、赤い点それぞれが 1 つのサンプルを表す。下の波形は上の波形の 2 倍のサンプルで表されているため、これらのサンプルは元の波形により近づく。
サンプル
デジタル サウンドの世界では、サンプルという語はさまざまな意味で使用され、ときには混乱を引き起こす。ここでは一部の意味について説明する。
- デジタル化の際にサウンド信号を分割する離散的な時刻のこと。例えば、オーディオ CD-ROM には、1 秒あたり 44,100 個のサンプルが含まれる。各サンプルは、実際には時間の経過に従って計測された波形の振幅値を含む数値に過ぎない。
- デジタル形式で録音されたサウンドのこと。ミュージシャンが楽器の短い音を録音し、音楽やサウンド エフェクトの作曲や再生に使用する。これらの録音物もサンプルと呼ばれる。このヘルプでは、デジタル録音を指す場合には、「サンプル」ではなく「サウンド ファイル」と呼ぶようにしている。
- サウンドをデジタル録音すること。つまり楽器のサンプルは、デジタル化とその格納を意味する。
別名、サンプル振幅。1 つのサンプルによって格納される数値。これらの数値を以下に示す。
- 32 ビット オーディオの場合は -2147483648~2147483647 になる。
- 24 ビット オーディオの場合は -8388608~8388607 になる。
- 16 ビット オーディオの場合は -32768~32767 になる。
- 8 ビット オーディオの場合は -128~127 になる。
使用可能な最大サンプル値は、100 % または 0 dB と表現されることもある。
時間形式
Sound Forge ソフトウェアでタイム ルーラーと時間単位の表示に使用される形式。コードに含まれる内容は、次のとおりである。タイム、秒、フレーム、すべての標準 SMPTE フレーム レート。
ショートカット メニュー
画面の特定のエリアをクリックすると表示される状況依存のメニュー。ショートカット メニューから実行可能な機能は、クリックされたオブジェクトやプログラムの状態によって異なる。他のメニューと同様に、ショートカット メニューからアイテムを選択することによって操作を行うことができる。Sound Forge ソフトウェアのショートカット メニューは、さまざまなコマンドにすばやくアクセスするために頻繁に使用される。
ジッパー ノイズ
ジッパー ノイズは、フェード アウト時など、変化するゲインを信号に適用したときに発生する。ゲインの変化の間隔が大きいと、ジッパー ノイズは耳に聞こえるノイズになることがある。フェードは 64 ビット演算を使用して作成されるため、耳に聞こえるジッパー ノイズは生成されない。
周波数スペクトル
信号の周波数スペクトルは、信号の周波数の範囲を表す。オーディオでは、耳で聞き取れる周波数範囲は基本的に 20~20,000 Hz である。周波数スペクトルという用語で、これらの周波数の分布を表すこともある。例えば、重低音の内訳の大部分はスペクトルの下端(20~200 Hz)にある。
周波数モジュレーション(FM)
サウンドの周波数(ピッチ)が時間に沿って変化するプロセス。FM と略される。サブオーディオの周波数モジュレーションを実行すると、ピッチを曲げるエフェクト(ビブラート)が発生する。オーディオ周波数帯内(20 Hz~20,000 Hz)での周波数モジュレーションによって、音色を大きく変化させる多くの異なるサイドバンド周波数が作成される。
周波数モジュレーション(FM)シンセシス
この種類のシンセシスは、周波数モジュレーションの法則に依存する。FM シンセシス ツールを使用すると、周波数モジュレーション(FM)と加算シンセシスを使用して単純な波形から複雑なサウンドを作成できる。
周波数モジュレーションでは、波形(キャリア)の周波数が別の波形(モジュレータ)の出力で変調され、新しい波形が作成される。モジュレータの周波数が低い場合は、キャリアが時間に沿ってゆっくりとデチューンされる。ただし、モジュレータの周波数が高い場合は、キャリアが急速に変調されるため、多くの周波数やサイドバンドが追加作成される。
Sound Forge ソフトウェアでは、最大 4 つの波形(オペレータ)をさまざまな構成で使用できる。構成によっては、オペレータがキャリアになったり、モジュレータになったり、単純な変調されていない波形になることがある。
信号/ノイズ比
信号/ノイズ比(SNR)は、録音された信号レベルとノイズ レベルの差に関する指標である。SNR の値は常に高い方が理想的である。
デジタル オーディオの場合は、信号/ノイズ比の高さは、サンプルあたりのビット数によって決まる。信号/ノイズ比は、16 ビット オーディオの場合は 96 dB、8 ビット オーディオの場合は 48 dB になる。ただし現実的には、この SNR を実現することは不可能で、特にローエンド機器を使用している場合は困難である。
ステータス形式
Sound Forge ソフトウェアでタイム ルーラーや時間単位の表示に使用される形式。コードに含まれる内容は、次のとおりである。タイム、秒、フレーム、オーディオ CD 時間、すべての標準 SMPTE フレームレート。ステータス形式はサウンド ファイルごとに個別に設定されている。
ストリーミング
ファイルのダウンロードと再生を同時に実行するデータ転送の手法の 1 つ。ストリーミング技術により、インターネット ユーザーは、バッファ処理に短時間かかるだけで、安定的かつ連続的なストリームとしてデータを受信できる。ストリーミングを使わない場合、再生前にファイルを完全にダウンロードする必要がある。
スレッショルド
スレッショルドは、シグナル プロセッサが信号に対して動作を開始する信号レベルを決定する。ノーマライズ処理において、このスレッショルドを超えるレベルは減衰される。
制限
本来は、ハードのコンプレッサ。制限は、信号がある一定のレベル以上にならないようにするために使用されることが多いが、大幅に圧縮されたエフェクトを作成するためにも適用できる。制限の実行対象はピークのみにする必要がある。スレッショルド レベルの設定が低すぎると、大きなディストーションが発生する。
変動する信号がベースラインと交差するポイント。
同じスロープを持つゼロ交差で編集を行うと、ずれの発生率を最小限に抑えることができる。
挿入ポイント
別名カーソル位置。ワープロのカーソルと同じような意味を持つ。操作によってマーカーやコマンドが挿入される場所である。挿入ポイントは、点滅する黒い縦線として表示され、マウスの左ボタンをデータ ウィンドウ内の任意の場所でクリックすることで移動できる。
帯域幅
オーディオ イコライゼーションでは、各周波数帯に関連付けられた幅があり、その幅が EQ によって影響を受ける周波数域を決定する。帯域幅の広い EQ バンドは、帯域幅の狭い EQ バンドより広範囲の周波数に影響する。
ネットワーク接続では、帯域幅は伝送される信号が伝送されるレートまたは一定時間内に伝送できるデータの量を指す(単位はビット/秒)。56 Kbps のネットワーク接続は、1 秒あたり 56,000 ビットのデータを受信できる。
タイム ルーラー
波形表示の上にあるデータ ウィンドウ内の領域。横軸の単位を、マーカー、リージョン、およびループ タグとともに示す。
ダイナミック レンジ
最大信号レベルと最小信号レベルの差。この用語は、音楽のパフォーマンス(高ボリューム信号と低ボリューム信号)や電子機器(ディストーション発生前のピーク レベルとノイズ フロア)を表すこともある。
チャンネル コンバータ
新しいチャンネルの個々のレベル コントロールで、ファイルをモノラルからステレオに、またはその逆に変換する機能。この機能では、ステレオ ファイルを、さまざまなレベルと反転チャンネルを持つステレオに変換することによって、面白いエフェクトを作成することもできる。
チャンネル メーター
Sound Forge ソフトウェアのチャンネル メーターは、現在再生中のサウンド ファイルの出力ピーク レベルを示す。これらのメーターには、選択可能な解像度と、ピークと最小ピークを保持するオプションがある。
24 fps フィルム(映画)から 30 fps ビデオ(テレビ)を作成するプロセス。「インバース テレシネ」、「プルダウン」参照。
テンポ
作曲におけるリズムの速度。通常、拍/秒(BPM)で指定される。
データ ウィンドウ
サウンド ファイルを開くと、それぞれデータ ウィンドウが表示される。各データ ウィンドウの一番上には、サンプルのタイトルまたはファイルの名前を表すタイトル バーが表示される。また、各データ ウィンドウには、波形表示、タイム ルーラーとレベル ルーラー、再生バー、その他のツールがある。これらのツールによって、情報を参照したり、サウンド ファイル内を移動することができる。
サウンド データを反転すると、ベースライン付近の波形の極性が逆になる。波形を反転してもファイルのサウンドは変わらない。ただし、別のサウンド ファイルをミキシングすると、フェーズがキャンセルされ、「こもった」感じのサウンドが生成される。ファイルの 1 つを反転することで、フェーズがキャンセルされないようにすることができる。
次の例で、赤い線はベースラインを表し、下の波形は上の波形を反転したイメージである。
ディザ
信号にノイズを追加してクオンタイズ ノイズをマスクする処理。
デシベル(dB)
対数スケールで 2 つの数値間の比率を表すために使用される単位。例えば、14 と 7 を比較する場合は、14 は 7 の 2 倍であると表現することも、14 は 7 より 6 dB 大きいと表現することもできる。この 6 という数値を導き出すのに、エンジニアは 2 つの瞬間値を比較するときに、dB = 20 × log(V1/V2)という方程式を使用する。聴覚は音の大きさを対数スケールで知覚するため、デシベルは一般に音に関する領域で使用される。
Sound Forge ソフトウェアでは、ほとんどの計測値はデシベル単位で表示される。例えば、サウンドの振幅を2 倍にする場合は、6 dB ゲインを適用する。32,767 のサンプル値(16 ビット サウンドの正の最大サンプル値)は、0 dB の値を持つと表現できる。同様に、16,384 は、-6 dB の値を持つと表現できる。
デジタル著作権管理(DRM)
曲、ビデオ、その他のメディアを、著作権物を保護するファイル形式で、インターネットを通じて配信するためのシステム。現在の計画では、著作権の所有権の証明書が含まれ、未許可の再配布を禁止している。
デバイス ドライバ
Windows が異なるハードウェアやソフトウェアに接続できるようにするプログラム。例えば、サウンド カード デバイス ドライバは、Windows ソフトウェアによってサウンド カードの録音と再生を制御するために使用される。
頭部伝達関数(HRTF)
サウンドは、聞こえてくる方向によってその聞こえ方が異なる。これは、聞き手の肩と鼻から跳ね返ってくるエコーと、耳の形に原因がある。頭部伝達関数には、サウンドが三次元空間の一定の方向から聞こえるようにするために必要な周波数と位相応答に関する情報が含まれている。
取り消し/やり直し
この 2 つのコマンドを使用すると、変更した内容が気に入らないときにプロジェクトを 1 つ前の状態に戻したり