テレビ視聴の方法としてアンテナ設置の他にケーブルテレビ会社のサービス加入があります。 これはケーブルテレビ会社からケーブルを使って宅内へ引き込んでテレビ電波を有線で受信する仕組み … 電波は、電界と磁界が連鎖反応を起こし、それが続いて受け側に到達します。これも図を使って説明します。左の送信側のアンテナに高周波電流が流れると、周囲に磁界が発生します。これは、「右ネジの法則」に該当します。 東京スカイツリーなどの電波塔やアンテナ網の整備によって、多くのエリアではテレビ放送の受信が行える状態になっているものの、一部の地域やエリアではテレビ視聴に適さない場所もあります。 なぜかというと電波をわければわけるほど、1台あたりのテレビに届く電波が少なくなるからです。 電波が足りないとテレビの映りが悪くなり、映像にノイズが入ってしまいます。 分配器1台あたり、だいたい 「3〜4dB」ほど電波の量が減る と言われています。 電波が伝わる仕組み. 電波の種類と、その特性の違いなどを考慮し、それぞれの周波数ごとの用途はある程度決まっている。 テレビ用の電波として主に利用されるのは、vhfの90メガ~222メガヘルツと、uhfの470メガ~770メガヘルツ。 そして衛星放送には、shfの電波が使われている。 何気なく観ているテレビ。 どのような仕組みでテレビまで放送の電波が届けられているか 、皆さん知っていますか?. 特に家族で生活している場合、テレビを複数の部屋で観たいこともあるでしょう。 1つのアンテナで複数のテレビを観るためには、分配器が必要です。 bsやcsなどの衛星放送でも、地上デジタル放送でも必要になります。 分配器は自分で購入して設置することが可能です。 テレビジョン放送:主として動画を電波を使って、不特定多数のために放送する仕組み。通常は動画に加えて音声、あるいはデータ等の付加情報を送ることができる。電波を使用せず有線で送出するケーブルテレビ(catv)もある。本項で詳述。 テレビアンテナ 電波受信の仕組み. © 2021 猫隼 All rights reserved. 2011年7月24日、日本のテレビ放送は、一部の地域をのぞいて地上デジタル放送に変わりました。そこで、テレビはどうしてうつるのか?また、地デジとはどのようなしくみなのかをわかりやすく解説しま … 受信基地まで電波が直接届かない場合は、「中継ぎ」のための中継車を間に入れて2段中継となることもある。 人工衛星回線による中継放送 特にテレビでは、自社単独あるいは系列各社共同で所有する 人工衛星 回線( SNG )を用いて中継放送を行う例がある。 光回線のテレビ視聴サービスの場合、複数の部屋にテレビの電波を分配しても費用は50,000円以内に収まります。 また光ファイバーという線を使うため、場所によって電波が届きにくいということもありま … マンションは戸建てと違い、電波や信号を共同で受信してテレビを視聴しています。これを「テレビ共聴システム」と言います。テレビ共聴システムには「アンテナ方式」と「ケーブルテレビ方式」の2つがあります。各戸にはブースターや分配器を通って届きます。 テレビを無線lanルーターにつないで快適な新生活を過ごしてみませんか。使い方や設定方法などお得な情報が盛りだくさん!環境に合わせて最適な無線lanルーターをお選びいただけます。 テレビを見るためにアンテナで受信した電波信号を分ける機器として、「分配器」「分波器」「分岐器」が挙げられます。 名称や目的は似ていますが各種の役割は大きく異なるため、間違って使用するとテレビが映らなくなるかもしれません。 電波ってなあに? 電波とは. 放送局から電波の発信、アンテナによる受信から映像になるまでの流れを図解で掲載。 家電豆知識(いろいろ) | エアコンの仕組み |テレビ放送・テレビの仕組み| 家電製品の電気代一覧表 | 太陽光発電 … テレビやラジオは放送局のアンテナから出た電波を受信します。テレビ放送は地上/衛星デジタル放送による多チャンネル、高画質、高音質番組に加え、双方向サービス、高齢者や障がいのある方にやさしいサービス、緊急時の情報提供など機能を充実させています。 電波の伝送経路においては、さまざまな電波障害が存在します。 デジタル放送においては、これ等の障害により、1と0のデータが正しく伝送されなくなり、誤り訂正の仕組みがどうしても必要です。 地上デジタルテレビ放送は現行のuhf帯の地上アナログテレビ放送と同 じuhf帯を使用するため、既にuhf帯の地上アナログテレビ放送を伝送し ている共同受信施設では、原則としてそのままで地上デジタルテレビ放送 も受信できます。 ケーブルテレビのインターネットの仕組み. 放送局のカメラで撮影された映像は「プリズム」を通して色が赤(r)緑(g)青(b)に分解され、ccd(光の明暗に比例した電流を発生する素子)によって画像の色や明るさの情報を画面左上から右下へなぞるように一列の電気信号に置き換えられます。 例えば、テレビを設置したい部屋にテレビ端子(受信機を接続する機器)がない場合、なんらかの方法でテレビ電波を受信できる環境を作る必要があります。 分配器はひとつのテレビ端子から複数のテレビに電波を分け与えるために必要な器具です。 テレビ・ラジオ. 本来、テレビはアンテナから電波を受信することで放送を行いますが、ケーブルテレビでは電波が受信しにくい山岳地帯や高層ビルが多い地域などで、ケーブルを用いてテレビ放送を視聴できるようにするサービスです。 これまで何度か民放労連の講演会や勉強会に呼ばれ、BSデジタル放送や地上デジタル放送についてお話しさせていただきましたが、テレビそのものについて語りたりない点があるとつねづね感じていました。ですから今日お招きいただき、テレビの「そもそも論」を語れといわれたことは、たいへんありがたい。私に与えられたテーマは「そもそも地上放送局って?」ですが、もう一歩引いて「そもそもテレビって?」から、話を始めたいと思います。50分ほどお付き合いください。 テレビブースターとは、テレビ受信に使用されるuhf(地上波)やbs・csなどの衛星波に対応した高周波用の増幅器です。最近では4K8Kの電波に対応するものも出てきています。 テレビの受信レベルを強くして、テレビの映りの悪さを改善するためのもので、ネット通販や家電量販店などで購入することができます。 テレビ画面を近くでじっくり観察してみると、赤色と緑色、青色が1組となり、規則正しく繰り返されて並んでいることがわかります。 この3色をそれぞれの英語表記に直し、Red、Green、Blueの頭文字をとって、RGBと呼びます。 このRGBは3色の光り方を変えることで、白や黒、それ以外にもさまざまな色彩を作り出すことができます。 そこで、テレビは、受信した情報に従い、画面の左上から横方向に向かって3色ごとに照らし … ‚é‘—•—ƒpƒCƒv, yuriba.jpzƒGƒAƒRƒ“•—œ‚¯Žèì‚èƒLƒbƒgAŒ»ê‚ɍ‡‚킹‚ăAƒŒƒ“ƒWŽ©Ý‚Ì•—‚悯ƒ‹[ƒo[, yuriba.jpz•Ö—˜‚Őߐ…A•’Ê‚ÌŽÖŒû‚ªŽ©“®…ð‚É‚È‚é, yuriba.jpzƒGƒAƒRƒ“‚Å‹óŠÔœ‹ÛuƒoƒŠƒAƒNƒŠƒAv. 電波はこのスマホやテレビ局という発信する源(発信源)を中心にいろんな方向に進んでいく波なのです 電波が進む仕組みは分かったと思いますが、どうやって会話のメッセージであったり、テレビのニュースといった「情報」が電波にのせているの? そして送信所の高いアンテナタワーから電波に乗せて発射している。それが秒速30万キロで空中を飛んで、キミの家の屋根の上のアンテナがキャッチし、部屋のテレビに絵や音が映し出されるという仕組みだ。 高さ634mの電波塔、東京スカイツリー。 電波障害が発生しやすい地域. 「ワンセグ」と「フルセグ」の違いについて解説する前に、この2つの機能が出現した歴史について解説していきたいと思います。 まず、テレビが開発されてからしばらくはアナログ放送という放送形態でテレビ番組は放映されていましたが、2003年に地上デジタル放送がスタートしました。俗に言う地デ … ケーブルテレビはケーブルテレビ会社が特定の場所に設置した大型専用アンテナを使って まずは地上波やBS/CS放送の電波を一括受信します。 それを光ケーブルや同軸ケーブルを使って各建物まで運んでいます。 家庭ではケーブルを通して受信できるため、テレビアンテナやパラボラアンテナ、 BS/CSチューナー等を設置するという手間が不要になります。 その代わり、ケーブルテレビ会社の専用機器(STB:セットトップボックス)を 一台設置する必要があります。 ※通常テレビ用の専用機器1台とイ … テレビを買ったはいいけれど、ケーブルをどこの端子に繋いだらいいのか分からない。失敗したらどうしよう・・・。ごちゃごちゃしてて配線、設定は難しいだろうと、先入観で決めていませんか? ですが・・・実はテレビの配線は思った以上に簡単なんです。 電波とは、電磁波の一種で空間を伝わる電気エネルギーの波のことです。 この波を電波では周波数といいます。 電波の大きさ(単位)は周波数であらわし、1秒間に繰り返される波の数をヘルツ(Hz)という単位であらわします。 テレビ放送には地上波放送と衛星放送の二通りがあります。 地上波放送は、放送局と家庭の間に中継所を設けて電波を送っています。地上の施設を使って電波を送るので、地上波と言われます。 (アニメーションは「地上波放送」の電波の流れです) テレビ放送の仕組み 放送局(ほうそうきょく)が作った番組(ばんぐみ)をテレビで視(み)ることの できる仕組みがテレビ放送です。 放送局で作った番組は、送信所(そうしんじょ)から電波となって飛んできま す。 現代の我々に身近な、映像を見るための機械といえば、テレビであろう。 この言葉は『テレビジョン(television)』の略称である。, そしてテレビジョンという言葉は、動いている画像、つまりは『映像(video)』を電気信号に変換し、その信号を「電波(radio waves)」にのせ、離れた場所に送って、そちらで再び映像に変換して再現するシステムのこと。 このシステムは、動画を撮影して電気信号に変換する「カメラ(camera)」、映像信号を電波に乗せて送る「放送(broadcasting)」、放送を受け取り動画として再現する「受信機(receiver)」から成り立つ。, 「ブラックボックス(black box)」とは、内部構造が不明なもの。 あるいは、それを問題にしなくとも、 外部からマニュアル通りの操作をすることで、実用的に利用できる仕掛けのこと。, とにかくそういうわけで、我々にとってはとても身近なはずのテレビも、平均的な理解度的には、案外身近でもないとも言われる。, アナログは「連続した量(連続量)」。 デジタルは「不連続な量(離散量)」とは、よく使われる定義である。, 常に動く針が指した領域で時間を示すアナログ時計。 それと、きっちりとした時間、分、秒などを数字で表示するデジタル時計を比べると、おそらくわかりやすい。 動き続ける針が指し示した領域(エリア)というのはちょっと曖昧であるが、はっきりと示された数字というのは(その瞬間においては)決定的なものである。, 実際に言うなら、その場に人が何人いるかということは明確な数字として表すことができるが、 ある距離がどのくらいの長さかというのは、メートルとかヤードといった単位を定義しない限り、はっきりとした数字では表せられない。, 距離は単位を定義しても、はっきり1メートルとか2メートルでなく、細かく調べると、1.456235……とか、明確に理解しようがないような数が現れたりする。 これは距離が、明確な境目のない連続した量だからであり、各種の量に数字を当てはめようとする場合に、無限の数が必要になってしまうことを意味する。 そういうのがアナログ量である。, 一方で、その場に3人の人の数は、どれだけ細く調べようと3のままである。 これは物の数というのが、明確な境目のある不連続な(離散した)量だからである。 そういうのがデジタル量というわけだ。, 時間は本来、離散的だとされていて、常に動く針がある瞬間に指しているエリアを基準に、その瞬間の時間を定義するというのは、なかなか賢い試みと思われる。 そしてデジタル時計というのは、本来は不連続な時間に大量の点を打って、区分けし、その点ごとを明確な時間の数として表示しているというような装置ということになる。, アナログ放送は、電波をそのまま、アナログな波として送信する。 「電波」電磁波との違い。なぜ波長が長く、周波数が低いか「電磁気学」最初の場の理論。電気と磁気の関係 電波は、送る距離が長いと、品質が劣化していくし、ノイズの影響も受けやすい。 しかし、伝送手順が手短のためにチャンネルの切り替えがスムーズで、劣化はするが送受信そのものは途切れにくい。, デジタル放送は、映像の情報を、数字のデータ(デジタル信号)に変換して送る方式。 こちらは、デジタル情報というのがコンピューターなどで扱いやすいため、ノイズなどのエラーを検出し排除もしやすい。 デジタルデータは、圧縮機能も使いやすく、伝送量の節約も可能。 さらにスクランブル(暗号化)して、コピー対策などもしやすい。 しかしエラーなどがシステムの許容範囲を超えると、受信は完全に途切れてしまう。 「コンピューターの構成の基礎知識」1と0の極限を目指す機械  アナログ放送が主流だった時代は、高い建物などで電波が反射されたための重なりで、映像が何重にも映ってしまう「ゴースト」と呼ばれる現象が厄介な問題とされていた。 デジタルの伝送方式では、この問題は基本、発生しないとされている。 受信時のミスで重複したデータを排除するプログラムを設定できるためである。, そもそも映像とはどのようなものなのであろうか。 わずかな時間の間での連続する静止画、『フレーム(frame)』を撮影し、それを連続して再生する。 切り替わるのが十分に早ければ、実際には静止画の連続であっても、我々の目にはなめらかな動画として見える。, テレビの場合、そうして得られた動画としての連続静止画を、どこか別の場所に、電波として送らないと成り立たない。 つまり実際に送るのは、動画というよりもたくさんの静止画であり、それらの1つ1つを電気信号に変換する必要がある。, 静止画は複数の線に分解され、 その線をひとつながりにしたものが情報として伝送される。 このような、分割した線を繋げて送る方法は、『走査(そうさ)(scan。スキャン)』と呼ばれ、分割された一本ずつの線を『走査線(scanning line)』という。 走査を行うのは、情報量が大きい画像を、電波にのせれるレベルの信号量に落とすため。, 走査された静止画情報を受け取った受信機は、その線を再び元の通りに並べ、画像へと戻すわけである。, ちなみに、点のスキャン、線のスキャンを順次行って画像を取得する技術は、「ラスタースキャン(Raster scan)」とも呼ばれる。 ラスターというのは、農業などで、地面を引っ掻いて平らにしたりするための道具である「熊手」を意味するラテン語らしい。, 走査は、基本的には左から右へ水平に、線上の「走査点(scanning spot)」と呼ばれる各点を、電気信号として取り出していく。 走査点は、一定スピードで左から右へ移動していくわけだから、電気信号を取り出した時間(タイミング)が、その線上の位置。 そして、実際に取り出した信号の大きさが、明るさの情報の基準となる。, 走査は水平といっても、実際にはほんの僅かな垂直方向への走査も同時になされていて、左から右へ走査して、それから左端に戻ってくる間で、次の出発点はまた少し下がる。 だから走査線は、 実際には完全な水平でなく、少しだけ、右斜めに下向きの線となる そしてある画像の最後の走査線を描いた後、画像の右下の位置にきている走査点は、また左上の初期位置に戻り、次の画像の走査を開始する。, 1つの線の走査を終えて、走査点が左端に戻ってくる期間は「水平帰線期間(Horizontal blanking interval)」。 画像全体の走査を終えて、走査点が左上に戻ってくる期間は「垂直帰線期間(Vertical blanking interval)」と呼ばれる。 帰線期間の信号情報は、映像にいらないので、普通、受信機はこの期間の表示をしないようにコントロールされている。, 測定器などにおいて、観察する対象の量や変化を捉えられる最短の時間間隔を「時間分解能(じかんぶんかいのう)(Temporal resolution)」という。, 例えばある音の測定器の時間分解能が1秒だとする(実際にそうだったら、控えめに言ってかなり精度が悪いが) その測定器は、0.5秒ごとに途切れる音の連射を、繋がった長い音として認識してしまうわけである。, 人間は物質が放射、あるいは反射した光を、その目で捉えることで、視覚情報を認識する。 「視覚システム」脳の機能が生成する仕組みの謎。意識はどの段階なのか そして、人間が光の点滅を認識する時間分解能は0.05秒~0.1秒くらいとされている。 つまり、なめらかな動画として連続画像を見せるためには、それ以下の時間間隔での切り替えが必要。, さらに、考えられる時間分解能よりも早い速度であっても、それが少し程度なら、表示する画像パターンやモニターの特性によって、画像がちらついてしまうこともある。 そのようなちらつき現象は「フリッカ(flicker)」と呼ばれている。, しかし、素早い切り替えはともかくとして、1秒間に見せる画像の量が多くなるのは、そのまま転送データの増加につながってしまい、技術的な制約も大きくなる。 そこで、水平走査のラインを分けた場合における、奇数ラインのみから構成される静止画と、偶数ラインのみから構成される静止画を、交互に伝送データとして利用する荒業が開発された。 それは『インターレース走査(interlaced scan。飛び越し走査)』と呼ばれる方式である。, 受信機側が奇数ラインのみと偶数ラインのみを交互に表示させることで、我々の目には、「残像効果(Afterimage effect)」による補完で、ちゃんとした画像としてしっかり認識される。, 残像効果とは、少し前の画像を、それが見えなくなった後もしばらくの間は認識し続けてしまうという、我々の視覚システムの機能の1つ。, インターレースでは、走査時間も短縮しやすい。 それに、転送データも、全ラインを走査した場合と同じ量で、画像の数を倍にできる。 実際のアナログテレビにおいては、インターレース走査が主流で、1秒に30コマ分の画像を用意するわけだが、それにより実質1秒に60コマ分用意できていたわけである。, そして、インターレースに対し、水平走査のラインを奇数と偶数で分けないで、フレーム単位に全画面を表示する方式は、『プレグレッシブ走査(progressive scan)』と呼ばれる。 デジタルテレビでは、インターレース式かプログレッシブ式か、設定で変えられたりできる場合も多い。, まず、 工学的製品において、その機能性にとって、重要な役割を担う構成要素を「素子(そし)(element)」という。, 電化製品の代表的な素子としては、例えば電気を蓄えたり放出したりする「コンデンサー」や、信号を増幅させたりする「トランジスタ」などが代表的。 「電気コンポーネントの動作」直流と交流の使い分け、各デバイスの役割「電気回路、電子回路、半導体の基礎知識」電子機器の脈  そして言うまでもないことであろうが、動画はテレビカメラ(ビデオカメラ)で撮られる。 テレビカメラは、撮影した画像の各部分の光の強弱を、平面の受光素子を用いて、電気信号に変換する。 この過程を行うのが『撮像素子(さつぞうそし)(Image sensor。イメージセンサー)』というものである。 「カメラの仕組み」歴史。進化。種類。初心者の為の基礎知識, 撮像素子として古くは「ビジコン」や「プランビコン」などの「撮像管(Imaging tube)」がよくつかわれていたが、現在は、「CCD」や「CMOS」などの『固体撮像素子(solid state image sensor)』が主流となっているという。, 撮像管は、ある種の「電子管(electron tube)」。 電子管とは、意図的に電場内の電子を動かし(つまり電気をコントロールして)、特定動作に利用するための素子。 多くの電子管は、真空の管構造なので、「真空管(vacuum tube)」という名前でもよく知られている。, ビジコンは、光電変換部に光導電材料(光を当てると電気伝導率が高まるような材料)を用いた撮像管。 もともとはRCA(Radio Corporation of America)とかいう会社の撮像管の商品名だったようである。, プランビコンも、光導電現象を利用した撮像管だが、ビジコンよりもかなり性能が上だったらしい。, 他にもNHK放送技術研究所と日立製作所が開発した、安価なわりに高性能だったらしい「サチコン」など、いろいろな撮像管があったという。, 光導電素子は、 光により抵抗値が変化するため、受光する画像の明暗パターンを、各点ごとの抵抗値パターンに対応させれる。 つまりは、光がよく当たっているところは電気抵抗が小さくなっているので、電流がたくさん流れる。 光があまり当たっていないところでは電気抵抗が大きいため、電流が少ししか流れない。 そしてそれらの抵抗値の変化具合を、電子ビームのスキャン(走査)によって、電気信号として取り出すのである。, カメラのイメージセンサーが出力する、映像の明るさを表す信号は、「輝度信号(きどしんごう)(luminance signal)」と呼ばれる。 そして輝度信号には、「同期信号(Sync signal)」というのが付加されていて、それは受信機側が元の画像を再現する際の、信号の読み出しタイミングとして利用される。, (たいてい二酸化ケイ素らしい)酸化皮膜の絶縁体を、金属と半導体で挟んでいる構造を、「MOS構造(Metal-Oxide-Semiconductor structure)」という。, また、微細な電子回路などを詰めこんだ「集積回路(integrated circuit。IC。LSI。Large Scale Integration)」は、今やデジタル機器における最重要素子と言えるだろうが、MOS構造のものはシンプルがゆえに集積度が高くて、消費電力も抑えやすいため、現在の主流とされている。, 固体撮像素子というのは、通常、MOS構造の半導体集積回路を用いたイメージセンサーのこと。, 構造的に、電子(マイナス電荷)を不足させている「p半導体」と、 あぶれて自由な電子(マイナス電荷)を有する「n半導体」を、接合したら、実質マイナス電荷とプラス電荷なわけなので、互いに引き合う。 しかし、「pn接合」と呼ばれる、接合の境界付近では、空乏層(くうぼうそう)という、実質、絶縁状態な領域も生じる。, pn接合半導体のp側にプラス、n側にマイナスの電極を繋ぐことを「順方向バイアス(Forward bias)」。 ぎゃくにpにマイナス、nにプラスを繋ぐことを「逆方向バイアス(reverse bias)」という。, 順方向バイアス時に電圧をかけたら、半導体の内部を電流が流れる。 つまりは、電子は次々にn型領域からp型領域に流れ込んでいくが、そのような、同一方向のみに電流を流す性質は、「整流(せいりゅう)(rectification)」と呼ばれる。, そのpn接合の逆バイアス時の、電荷蓄積の性質を利用した、「光検出器(Photodetector)」や「受光素子(Light receiving element)」とも呼ばれる、光起電力(ひかりきでんりょく)(光により発生する起電力)を有する素子を『フォトダイオード(Photodiode)』という。, CCD(Charge-Coupled Device。電荷結合素子)イメージセンサーの場合。 配列されたフォトダイオードが、画像の各部分から受けた光を変換した電子は、センサー内の素子から素子へ、バケツリレー式に転送され、出力部から順次取り出されていく。, 一方でCMOS(Complementary Metal Oxide Semiconductor。相補性金属酸化膜半導体)センサーは、同じように光を電気信号に変える半導体センサーであるが、こちらは受光素子1つずつに、アンプ(信号増幅器)がついている。 受光素子は光を受けると電荷に変換し、さらに変換器で電気信号に変換、アンプで増幅し、出力信号になる。 CCDは、出力に別の電源が必要となるが、CMOSは、1つだけで出力まで駆動するから、基本的に低コストとされる。, CMOSセンサーは、受光素子ごとにアンプがついてるが、大量のそれらの性能を完全に統一するのはかなり難しく、そのせいでノイズが発生しやすいという欠点がある。 そこで、各受光素子のノイズのばらつきを記録しておき、得られたデータから、ノイズ分を差し引くという方法が実用化されている。, 電波というのは、波長が長い電磁波である。 それを普通に波として扱った場合の、一定時間内のパターン周期、いわゆる「周波数(frequency)」が3テラヘルツ(3000000000000ヘルツ)以下という定義もある。, 映像信号は、各放送局に割り当てられた、『搬送波(はんそうは)(carrier wave)』 という、電波に乗せて送信される。 そしてその電波を、各家庭の屋根の上などに設置されているアンテナが受信。 各放送局の番組ごとの映像信号は、「チューナー(tuner)」という装置により、選択的に抽出される。 そして、同期信号を基準に、元の画像を再生する。, 300ギガ~30ギガヘルツの周波数の「ミリ波(Extremely High Frequency。EHF)」。 30ギガ~3ギガヘルツの周波数の「センチ波(Super High Frequency。SHF)」。 3ギガ~300メガの周波数の「極超短波(ごくちょうたんぱ)(Ultra High Frequency。UHF)」。 300メガ~30メガの周波数の「超短波(Very High Frequency。VHF)」。 30メガ~3メガの周波数の「短波(High Frequency。HF)」。 3メガ~300キロの周波数の「中波(Medium Frequency。MF)」。 300キロ~30キロの周波数の「長波(Low Frequency。LF)」。 30キロ~3キロの周波数の「超長波(Very Low Frequency。VLF)」。, 電波の種類と、その特性の違いなどを考慮し、それぞれの周波数ごとの用途はある程度決まっている。 テレビ用の電波として主に利用されるのは、VHFの90メガ~222メガヘルツと、UHFの470メガ~770メガヘルツ。 そして衛星放送には、SHFの電波が使われている。 「アンテナの基礎知識」種類ごとの用途。個々の特徴, 電波に信号を乗せることを「多重(multiplex)」または「変調(modulation)」。 実際に映像や音声などの信号を変調した搬送波は、『変調電波(Modulated radiowave)』という。, 実際には乗せるというよりも、元はシンプルな波である搬送波に、それに対応した変化をつけている。 運送波の振幅や周波数を、変調信号によって変化させるわけである。, ラジオ放送には「AM」と「FM」という方式があるが、これらは、変調に関するもの。 つまり、「振幅変調(Amplitude Modulation)」、「周波数変調(Frequency Modulation)」である。, テレビ放送用の電波の中で、さらに6メガヘルツ分ごとの周波数帯が、 各放送局のチャンネルに対応している。 例えばCh1~3は、VHF帯の90メガ~108メガヘルツの領域を分け合っている。 また、映像と音声は同じチャンネルのものであっても、それぞれ別々の搬送波で送れるようになっているという。, 映像信号の搬送波は、チャンネル周波数内の下限1.25メガヘルツに納められている。 音声信号は上限0.25メガヘルツである。 つまりその間には4.5メガヘルツの空きがあるわけだが、 これは4.2メガヘルツまでの周波数幅を持つ映像信号との干渉が少なくするための配慮である。, これは映像を表現するのにどれくらいの周波数がいるかということでもある。 画像が白とか黒とかただ一色の場合、輝度信号が変化する必要はない。 つまり必要な周波数は0である。, 一般的なアナログテレビの走査線数は525本とされている。 インターレース方式の場合は、262.5本である(走査のスタート位置を上手く調整している)。 1秒間に表示されるフレームは30(インターレースの場合は60)だから、1秒の走査線数は15750本となる。, ヘルツという単位は1秒間での振動回数。 走査は順次水平に行われていくわけだから、画面に垂直の変化が1度あった場合、走査の周波数は変化の回数分、つまり15.75キロヘルツ(15750ヘルツ)必要となる。 ただの変化の数が増えるために必要な周波数はこの15.75キロヘルツの正数倍である。, 一方で水平方向の変化が1度だけある画面の場合、 水平走査的には1回の変化があるだけなので、1コマずつで1ヘルツずつ、つまり1秒では、30か60ヘルツが必要になる。 インターレースでは60である。 そして水平方向の変化が増えても、必要な周波数は60ヘルツの整数倍。, それと、走査表現的に最も細いテレビの画像パターンは、極限に細かい市松模様(いちまつもよう)ということになる。, また、画面を構成する最小のブロック数、つまりは「画素」の数は、 縦は当然、水平走査の回数である525である。 横の画素数は通常、基本的な画面の横縦比(じゅうおうひ)とされる4:3では、700(525×4/3)となる。 つまり通常のアナログテレビの画素数は、700×525(367500)。 1秒間では367500×30(11025000)。, インターレースの場合、1秒間のフレーム数は60だが、結局半分ずつの部分しか表示していないため、画素数は30フレームの場合と変わらない。, 縞模様1つが変化とすると、その変化回数は画素数の半分ということになるから5512500。 つまり、これがテレビで扱える映像信号の最高周波数で、約5.5メガヘルツ(5500000ヘルツ)ということになる。, ただ実際には、走査の帰線期間の調整などにより、画面で有効に表示される部分は、走査分の内、水平方向83%、垂直方向93%程度とされている。 さらに、信号処理や、表示装置の周波数特性などを考慮したら、映像信号の周波数の上限値は、結局4~4.2メガヘルツ程度くらいまでと考えられているわけである。, チャンネル操作は、搬送波から送られてくるテレビ電波の中から、特定のチャンネル分6メガヘルツの信号を抜き出す操作も同じ。 しかしそのためのフィルターを、チャンネルごとに用意するのは大変である。 そこで受信機は、視聴するチャンネルのテレビ信号を、一旦共通の信号帯域である『中間周波数(Intermediate Frequency。IF)』に変換する。 これは送受信において、扱いにくい高周波信号を利用しやすくするために使われるテクニックでもあるが、テレビのチャンネル操作の場合は、全チャンネルを、共通した信号処理回路で処理できるというのが最大のメリットとなる。, いわば中間周波数は全チャンネル周波数に共通に使えるフィルターというわけである。 そしてこの映像の中間周波数には、妨害が発生しにくいとして、58.75メガヘルツが選ばれている。, テレビのチャンネルの切り替えに関して、「チャンネルを回す」と表現することがあるが、 これは初期のチューナーが「ターレット式(回転型選局式)」だったことの名残とされている。 ターレット式チューナーは、各チャンネルに対応したコイルやコンデンサの回路を、回転により切り替えるというものだったらしい。 しかし基本的に、周波数のズレや、端子の接触不良などのトラブルが起こりやすかったそうである。, 後には、「PLL(phase locked loop。位相同期回路(いそうどうきかいろ))」というのを使った、「周波数シンセサイザ(Frequency synthesizer)」が使われるようになっていく。, シンセサイザというのは、入力した要素を合成したりして調整し、新たに出力するような装置のこと。, PLLは基本的に、「位相比較器(いそうひかくき)(Phase Compalator。PC)」、「ループフィルター(Loop Filter。LPF)」、「電圧制御発振器(Voltage Contorolled Oscillator。VCO)」などで構成された電子回路。, 位相比較器は2つの入力信号の位相差、ようするに、波の周期の重なりを検出する。 「三角関数とは何か」円弧、動径、サイン、コサインの振動と波。  ループフィルタは、位相比較器から出力される、「リプル(ripple)」を含んだ直流信号を平均化し,交流成分の少ないきれいな直流信号に変換するためのフィルタの役割を果たす。, PLLには、基準となる信号(入力基準信号)があり、その基準信号と出力信号に、位相差(周期のズレ)がある場合、位相比較器は、ズレに応じた電圧を発生させる。 位相比較器からの出力された信号は、ループフィルタにより、余計なノイズなどが取り除かれるが、この過程はVCOの動作の安定を高めるためらしい。 そして、位相比較器からの出力信号は、ループフィルタを経て、VCOからの出力と、基準信号との位相ズレを修正する。, ようするに、PLLは、ある種のフィードバック回路(出力の一部を入力側にもどし、出力を調整するような回路)。 そのようなフィードバック制御により、出力周波数を、基準に応じた位相、周波数に固定(ロック)するような回路である。, PLLは、現在の通信技術において非常に重要な要素とされており、テレビにおいても、チャンネル同調などの精度を非常に高めている。, わりと長い期間、テレビのディスプレイ(モニター)として標準だった「ブラウン管」の本来の名称は『陰極線管(いんきょくせんかん)(cathode-ray tube。CRT)』である。, ブラウン管という名は、発明者であるカール・フェルディナント・ブラウン(Karl Ferdinand Braun。1850~1918)が由来。, テレビ放送初期の時代は、このブラウン管が唯一のディスプレイだったから、アナログテレビの規格は、基本的にこれを基準としている。, ブラウン管は、漏斗(ろうと)のような形の真空管内に放たれた電子ビームが、蛍光(けいこう)物質が付いたパネルを発光させるというもの。, ブラウン管で、電子ビームを放つ銃の役割を果たすのは、 熱を受けると電気を発生させやすい物質を付加させた電極(カソード)で、それを内部ヒーターで加熱することで電子を放出させている。 また、電子ビームの量は、受信した輝度信号を基準に、電圧をコントロールすることで調整する。, 受信機のディスプレイとして、半世紀以上くらい主流であったブラウン管の時代を終わらせたのが、『薄型ディスプレイ(Thin display)』であった。, 薄型ディスプレイは、主に使われている素材などにより、「液晶(liquid crystal)」、「PDP(プラズマ。Plasma Display Panel)」、「有機EL(Organic ElectroLuminescence)」と分類されることが多い。, 液晶というのは本来は、液体の性質である「流動性」と、結晶個体 が有する「複屈折性(ふくくっせつせい)」をあわせ持った物質のこと。, 液晶ディスプレイは、2枚の透明なガラス基板の隙間に、液晶を挟んだ構造となっている。 そして電圧により、液晶分子の向きをコントロールし、結果的に光学的性質を変化させて、光の透過量の調整を行う。, 性能的には、高精細(こうせいさい)な表示、省電力に優れている。 ただし動画表示の際の応答速度がやや遅め。 「ブラウザ」WEB表示の仕組み。レンダリングはいかにして行われるか?  液晶ディスプレイにおけるカラー表示は、液晶自体が発光しているわけではないことから、バックライトとカラーフィルターを組み合わせて利用している。 実はこのバックライトとカラーフィルターの部品は高価で、液晶ディスプレイの製造コストの半分以上を占めているともされる。, PDPは、ガスを入れた放電管に電圧をかけて放電させる。 ガス内の放電で発生した電子や、プラス電荷の荷電粒子がほぼ同数存在していて、電気的に中性なプラズマと呼ばれる状態となっている。 そして、その放電中に発生する紫外線を、管内に塗った蛍光体に当てて、可視光を発生させるという原理。, 性能的には、大画面に適していて、動画表示の際の応答速度、解像度も優れている。 しかし消費電力の大きさが課題とされる。, 有機ELは、 電圧をかけると発光する有機物(炭素化合物)あるいは その現象を利用した発光部品(発光ダイオード)のこと。 そして有機ELディスプレイとは、当然これを利用したもの。, 省電力、高精細な表示に優れる。 そして何より、バックライトや放電管のスペースが必要ないので、とにかく薄くしやすい。 必要な各有機物は、わずか数百ナノメートル程度とされ、有機ELディスプレイの薄型化に繋がっている。 ただ、大型化が難しく、寿命を長くしにくいともされている。, 色を定義する場合に重要となる3つの要素がある。 つまり、『明度(brightness)』、『色相(hue)』、『彩度(saturation)』である。 明度は「明るさ」 色相は「色合い」、あるいは「色調」、「色彩」。 彩度は「鮮やかさ」である。, 通常、それらの3要素が表現したあらゆる色は、人間が認識する範囲では、『RGB(赤、緑、青)』の3色を上手く混ぜ合わせることで再現できる, 色が表現されるパターンは基本的に2つある。 「加色法」と呼ばれる、色がついた物が自ら発光する場合。 それに、「減色法」と呼ばれる、自らは発光しないで、当てられた光を吸収することで、色を浮き上がらせる場合。, ようするに、加色法は、複数の光を混ぜ合わせ、色を表現する方法。 減色法は、白色光(RGB全部混ざった色の光)を選択的、部分的に吸収することで、残された光で色を表現する方法である。, RGBは、加色法の、あるいは光の『三原色(three primary colors)』と呼ばれ、カラーテレビの映像の色はこちらの表現方式である。 一方で赤を吸収するシアン、緑を吸収するマゼンダ、青を吸収するイエローの『CMY(CMYK)』は、減色法、あるいは色の三原色で、印刷物などでは、こちらの方法で色を表現する。, CMYKのKは、表現をより明確にするために利用されるのを想定した、たいてい黒塗りの板、キープレートの頭文字らしい。, カラーテレビの撮像に使われるカメラでは、レンズを通った光が、反射鏡やプリズムを介して、三原色に分解され、それぞれの色ごとに、電気信号への変換が成される。, カラーCRT(カラーブラウン管テレビ)だと、ブラウン管内部の蛍光面に、RGB に発行する蛍光体がモザイク状に塗られ、電子ビームを当てると色が発光するようになっている。 蛍光体ごとのサイズ(ドット)は直径0.3ミリ程度と小さいために、我々の目には、ドットごとの色でなく、合わさった画像の色として認識される。 また、カラーCRTでは、RGBの各色に対応した電子ビームをそれぞれ放つ、3本の電子銃が備わっているが、それぞれが映像信号を基準に、ビームの量を(そしてそれによって色の強さを)コントロールする。, 実はかつて、テレビのカラー化において、大きな問題であったのが、白黒放送との互換性であったらしい。 なるべく混乱を少なくするために、白黒テレビでも視聴が可能な方法で色情報を付加すること。 そして、白黒テレビと同一の周波数で、放送電波を搬送波に乗せることが重要とされていたそうである。, 日本でも採用された『NTSC方式』のカラーテレビ放送は、白黒放送との両立性を保ちながら、白黒テレビと同じ6メガヘルツの周波数域で放送を実現するというものであった。 NTSCという名称は、1953年にそれを標準として定めた、アメリカの標準化委員会「National Television System Committee」かららしい。 アメリカでは早くも1954年から、この方式でのカラーテレビ放送がスタートする。 日本は1960年から。, RGBは、それぞれ別々の電気信号なわけだから、単純に情報量は白黒の3倍になる。 その上で、 それまでと同じような6メガヘルツにどのように納めればよいか。 NTSC方式は、「色差信号(color difference signal)」というものを導入することによって、その課題をクリアした。, (白黒テレビの映像信号に相当する)従来の輝度信号Yは、三原色RGBを重ね合わせたものという関係でもある。 つまり「Y = R + G + B」なわけだが、実は人間の目の色ごとの感度が違っているため、実際のYとRGBの関係は、係数を加えて「Y = 0.30R + 0.59G + 0.11B」となることも知られている。 この係数分を抵抗器などで再現すれば、RGBをYに変換する回路も用意できる。 そしてまた、各色の信号は、色信号と輝度信号との差を変換したものでいい。 つまり、RGBの3つの信号を送らなくても、輝度信号Yと、それに対するR成分差(R – Y)とB成分差(B – Y)を示す信号(色差信号)を送ればいい。, G成分差は、「Y = 0.30R + 0.59G + 0.11B」、「R – Y」、「B – Y」などの情報を使えば算出できるから、信号として送る必要はない。, 色差信号を使う利点は、すでにその情報が輝度信号に含まれているため、明るさの情報がいらないこと。 色の変化情報はいるわけだが、人間の目は、明るさの変化に比べ、色の変化に鈍感なため、それほど細かいものはいらない。 具体的には、0.5メガヘルツ分くらいの変化情報で十分だとされているという。, さらに、新たなRGB信号でなく、白黒放送にも使われていたYをそのまま利用することで、白黒テレビとの互換性も実現できた。, それでも色差信号自体は、やはり従来の周波数に対する余計な追加分である。 そこでNTSC方式では、映像信号の周波数分布の内の隙間を利用して、色差信号を多重していた。, また、この色差信号というのは便利なので、デジタル放送においても使われているという。, アナログデータをデジタルに変換する場合、基本的には「標本化(ひょうほんか)(sampling)」、「量子化(quantization)」、「符号化(encoding)」という段階を踏んでいく。, 標本化は、連続したアナログデータ(波形)の一定領域を時間単位で区切り、時間ごとの信号レベルを抽出し、サンプルとする処理。 この標本化における、各サンプル領域が短ければ短いほど、元の波形を再現しやすくなる。 各サンプルをどれくらい短くするか、つまり、1秒間をいくつの数に分けるかということを示す場合に、「サンプリング周波数」という言葉が使われる場合もある。 また普通は、再生する信号の2倍以上のサンプリング周波数で標本化をすれば、元の信号を復元できるという「標本化定理」を基準にする。, 量子化は、標本化データに段階を定め、各段階を数値に置き換えていく処理。 いわば、アナログデータからデジタルデータへの変換の処理である 標本化した信号の数値化とも言える。, 符号化は、量子化された値を、0と1の2進数に変換する処理。 あるいは、元の情報を、処理内容や目的に適した形式に置き換えたり、暗号化したりする処理。 データの圧縮の段階とも言える。 「ネットワークの仕組みの基礎知識」OSI参照モデル、IPアドレスとは何か, デジタル放送も、走査と伝送で成り立っているのは、アナログ放送と同じ。 ただ走査で得られるのが映像信号でなくデジタル信号で、キャリア(搬送波)への多重の方法も異なっている。, 扱う情報的にあまり劣化しないし、受信環境に応じた調整もしやすいので様々な場所で受信が安定する。 さらにデジタル転送では、データ圧縮技術により、映像音声の信号以外にも余分なデータを送る余裕があるので、番組表や、視聴者へのメッセージなどを付属させることもできる。, さらに映像のフォーマット(走査線数、走査方式、コマ数など)の調整も可能。 走査線数と方式は、もろに画質に関係する。, 走査線数はアナログテレビで525であったので、525pとか525iとかのフォーマットは、「標準画質(Standard Definition。SD)」と言われる。 pとかiは、プログレッシブ(p)、インターレース(p)の方式のこと。 つまり従来のアナログテレビは、525iである。 さらに750p、750i、あるいはそれ以上のものは「高画質(High Definition。HD)」とされる。, デジタルデータは、情報を、コンピューターにおけるビット形式に置き換えたものとも言える。 基本的な二進数の一桁とされる。, ビットは元は「binary digit(二進法の数字)」の略称らしく、 コンピューターの分野でよく使われるが、今は単に情報の最小単位という意味でも使われることが多い。, 特にデジタルデータ通信の速度は、「bps(bits per second。ビット毎秒)」という単位で回すことはないこれは名前の通り1秒ごとにどのくらいのビット数が送れるかを示している。, データ伝送速度の単位には、他に「Bytes/s」というのもそこそこ使われる。 これは毎秒転送可能なバイトを示す。 1バイトは8ビット。, データ通信も、電気通信である以上は、結局途中で、電気信号を伝送波に乗せる段階が必要となる。, ちょっとややこしいとされやすいのが(しかし便利なのが)、1Hz(ヘルツ)に乗せれる情報が1ビットとは限らないこと。 つまり、Hzとbpsはたいてい同じ数字ではない。 そして(通信料を説明する文脈において)普通は「Hz > bps」である。, デジタル化による高画質放送の決め手になった、GI社(General Instrument)が1991年と1992年の「NAB(National Association of Broadcasters)」で行ったデモ。 GI社は、デジタル圧縮技術を用いて、放送電波にデジタル変調を施し、HDTV信号を送信を、15Mbps(1000000bps)程度の通信速度で実現して見せたのだった。 6MHzで確保できる伝送容量は、20Mbpsくらいが限界とされていたから、業界にかなりの衝撃を与えたらしい。, GI社が提案した映像、音声データの圧縮技術は、後に「MPEG-2」と呼ばれる技術を利用していたという。 MPEGとは、「Moving Picture Experts Group(動画エキスパート団)」から。, Moving Picture Experts Groupは、「国際標準化機構(こくさいひょうじゅんかきこう)(International Organization for Standardization。ISO)」と、「国際電気標準会議(こくさいでんきひょうじゅんかいぎ)(International Electrotechnical Commission。IEC)という2つの組織が合同で設立した、 動画符号化技術に関する専門家組織。, 通常、動画の符号化とは、圧縮効果の高い形式に、動画データを変換することを意味する。 そしてMoving Picture Experts Groupが、規格として定めた国際標準の方式がMPEGである。, デジタル放送においても、RGBの映像入力信号は、輝度信号と、色差信号に変換される。 そしてそれらの信号をデジタルデータに変換する。, 標本化定理により、標準画質の525iの場合、サンプリング周波数は、映像信号の上限とされている4.2MHzの倍である、8.4MHz以上あればいいことになる。 実際にはもっと余裕をもって、3倍くらいのサンプリング周波数を用いているらしい。, また、標本化された信号を量子化する時に、信号がちょうど区切りのよく数値に分解できるとは限らない。 そこでいくらか差分が切り捨てられるが、これがノイズ(量子化ノイズ)となってしまい、邪魔になる。 しかし、量子化の際の段階分け(レベル)を細かくすれば、ノイズも小さくなり、実質的に無視できるようになる。 子化ノイズは無視できる そこで、8ビットくらいで量子化すればよいとされている。, そしてここまでの段階でのデータ量は、普通に考えて大きすぎるために、MPEG規格の圧縮(符号化)により、 データ自体の質は劣化させずに大きく圧縮するわけである。, 通常、MPEG2の圧縮方式では、デジタル化された映像データの量は1/50程度。 音声データは、1/12程度に圧縮できるとされている。.

2泊3日 国内旅行 カップル, Line Iphoneの基本通話と統合 オフ, 保護猫 ケージ いつまで, アマゾンプライム 恋愛 日本, 沖縄 ツイッター コロナ, リクルートスーツ レンタル 当日, 大御所 声優 下手, Go To Eat キャンペーン 食べログ, パナソニック テレビ 再起動, ドライブ ファイル ストリーム 無効, ロールカーテン ニトリ 取り付け 天井, Windows10 サムネイルキャッシュ 無効, Simなし Iphone アップルid,