じぶん更新日記・隠居の日々
1997年5月6日開設
Copyright(C)長谷川芳典



03月のインデックスへ戻る
最新版へ戻る

 岡山から北九州に向かう途中に立ち寄った宮島SA(下り線)。しだれ梅がまだ咲いていた。


2019年3月19日(火)



【小さな話題】久しぶりにラジオ放送を聴いて思ったこと

 山陽道経由で妻の実家のある北九州に帰省する途中、久しぶりにラジオ放送を聴いた。といっても、私の好みは、気象通報と大相撲中継放送のみであった。

 中学の時に地学・天文・気象のクラブに所属していたこともあり、中学生の頃は、気象通報の情報を天気図用紙に書き込み自分で天気図を描くことが趣味の1つであった。今でも各地の天気の地名はほぼ暗記しているし、漁業気象の情報を音声で聴いただけでだいたいの気圧配置を想像することができる。

 以前このWeb日記にも記したことがあるが、現在、ラジオの気象通報の放送は毎日16時からの1回に縮小され、かつ、2016年4月からは、合成音声による自動放送に変わったとのことである。しかし私にはいまだにこれが合成音声であるようには思えない。確かに、風力、気圧、気温などを読み上げる時、同じ数値は全く同じ発音をしているようにも聞こえるが、不自然さがどこにもない。同じ合成音声であっても、高速道路運転中にしばしば利用しているハイウェイラジオなどはいかにも合成音声の継ぎ接ぎであってとうてい人間のおしゃべりには聞こえない。また私がよく利用しているジャストシステムの「詠太」なども、以前よりはだいぶ改善されたとはいえ、棒読み風で単調であることは否めない。気象通報の音声を聴いた時に生身の人間が喋っているように錯覚するのは、もともと読み上げる内容がきわめて機械的であり、長年にわたってそのようなしゃべり方に慣れてしまったために、今さら合成音声になっても違いに気づかないことによるのかもしれない。

 合成音声は、電話による各種応答窓口、宅配便の再配達受付、パソコンのCortana、カーナビなど至るところに使われており、もしかすると自分が関わっているのは9割がた、生身ではなくてロボットではないかという気がするほどである。また、確か中国だったと思うが、バーチャルに作られた映像のアナウンサーが合成音声でニュース記事を読み上げるという話を聞いたことがあった。ラジオはもちろんテレビでも、あらかじめ用意された原稿を忠実に読み上げるだけであれば、人間が喋るよりも、聞き取りやすい合成音声のほうが役に立つかもしれない。

 さらに言えば、学会発表とか、政府代表の演説などもそうだと思うが、決まり切った原稿を読み上げるだけであれば合成音声のほうが伝わりやすい。特に英語で発表する場合は、よっぽどそのほうが英語らしくなる。じっさい、ジャストシステムの「詠太」の英語読み上げ機能なども、単調でリズムに乏しいとはいえ、個々の英単語の発音は正確であり、日本人のカタカナ英語的発音に比べればはるかに聞き取りやすいのではないかと思う。

 では、ラジオの放送はなんでもかんでも合成音声に切り替えることができるのかということになるが、AIが発達しても最後まで困難と思われる1つが大相撲中継放送である。今回久しぶりにラジオを聴いたが、映像を見ていない人に、土俵上の早い動きをリアルかつ正確に伝えるというのはスゴイことだと改めて感心させられた。

 同じスポーツ中継でも野球中継であれば「ピッチャー、ふりかぶって第一球。ストライク!」とか「打った、大きい、センターバック、バック、入った」というように伝える程度であれば私でもできそうな気がするが、大相撲の場合は2人の力士の動きを同時に伝えなければならないし、技も多彩であるため、よほど訓練をつんだアナウンサーでないと実況担当はできないように思われる。

 また今回放送を聴いたところ、勝負がついたあと、アナウンサーはビデオ再生のように、立ち会いからの展開を振り返っていた。おそらく放送席でビデオ映像を早送りしながら言語化しているものとは思うが、もし、何も見ずに再現できているとしたらものすごい短期記憶力ではないかと思う。

 テレビの大相撲中継を録画した上で、それを無音で再生しながら、自分自身で実況中継をやってみるという練習をしたら、認知症予防には相当の効果がありそうな気もする。もっとも、相撲の基本動作を覚えていないと、「立った、ぶつかった、組んだ、投げた」程度の言葉だけに終わってしまいそう。

 AIが発達すれば、画像解析を通じて、2人の力士の動きを言語情報化することはできるようになるだろうが、それだけではラジオ中継にはならない。アナウンサーは、それぞれの力士の動きの中で重要な部分だけを取捨選択し、時には力士の表情にも言及するなどして臨場感を出そうとしている。AIがそこまでできるようになるのは何十年も先のことになるだろう。