第13回コンテンツ東京・第3回XR総合展などに参加して

エディット東京オフィス 塚本鈴夫

6月28日~30日の3日間、第13回コンテンツ東京・第3回XR総合展・第1回メタバース総合展・第9回先端デジタルテクノロジー展・第12回クリエイターEXPO・第13回ライセンシングジャパン・第11回映像・CG制作展・第9回広告クリエイティブ・マーケティングEXPOが国際展示場東展示棟で開催されました。いろいろな展示が行われていますが、これらを総合した名称が、多分「コンテンツ東京」なのだと思われます。私は、29日に参加しました。

当日は、梅雨時にもかかわらず晴で、暑い1日でした。昔は、東京ブックフェア一つでしたが、現在では、ブック関係はなくなり、「教育総合展」、「AI・人工知能EXPO」、そして「コンテンツ東京」に分かれています。まだ、コロナ禍の中ではありますが、参加者には、マスクなしの人もいました。ただ、コンテンツ東京とはいうものの、コンテンツの最大の提供者のいわゆる大手出版社は、ライセンシングジャパンには展示していましたが、コンテンツの展示はありませんでした。

今回の最大の特色は、教育総合展、AI・人工知能EXPOに続いて、やはりChatGPTなどの生成系AIに対する関心の高さだと思いました。生成系AIが昨年に登場し、ChatGPTが昨年の11月に公開されてから半年が過ぎました。政府や、文科省そして文化庁などで、ガイドラインや活用の方向性、著作権の考え方などが論議され、まとめが提出される直前の展示会です。私は、10時からと15時からのセミナーに参加し、そのセミナーの前後に会場を回るというコースでした。クリエイターEXPOも盛況でした。

参加したセミナーの感想を中心に報告し、全体の時代の流れのようなものを感じとっていただければ幸いです。聴講したセミナーは、①「生成AIで激変する広告・マーケティング」と②「サラリーマンプロデューサーたちが語る『時代に選ばれるコンテンツの作り方』」の二つです。簡単な内容紹介と、生成系AIについて面白いなと思ったことを紹介します。

Ⅰ 「生成AIで激変する広告・マーケティング」

(株)電通 AI MIRAI統括/AIビジネスプランナー 児玉拓也

https://aimirai.ai/

1. 電通のAI活用:

電通では50から60人のワークグループを通じてAI研究を行い、その成果は"∞AI"というプロダクトに反映されています。このAIは、市場リサーチからデータ分析、情報収集と分析、アイデア創出、そしてイラスト作成や音楽生成まで、広範な業務に適用されています。さらに、ChatGPT4のようなチャットボットも積極的に使用されています。

2. 技術トレンド:

AI技術は進化を続け、その精度向上、軽量化、制御技術の進化、そしてマルチモーダル化が重要なトレンドとして挙げられます。また、GPTだけでなく、他の言語モデルも注目されており、データの重要性が再認識されています。

3. マーケティングの変化:

AIの活用はマーケティング全体に大きな影響を及ぼしています。ワーキングフレームワークやワークフローの進化はもちろん、個人・クリエイターへの影響も大きいです。生成AIを活用することで、パーソナライズ化が進み、よりダイナミックなコンテンツを生成することが可能となります。さらに、チャットボットを企業のブランドパーソナリティとして活用することで、カスタマーダイアログ(顧客との対話)が可能となります。

4. チームプロセスへの影響:

AIは企画・デザインのプロセスを変革し、プロトタイプの作成を容易にするなど、チームプロセスにも大きな影響を与えています。この結果、クリエイターやマーケターは新たに"AIトレーナー"という役割を担うことになり、AIを育てる・選ぶという新たなスキルが必要となります。

5. プロのクリエイターに求められるもの:

生成AIにより誰でもクリエイターになれるわけではありません。AIを使いこなすプロフェッショナルなスキルが求められ、それにはAIの「育てる・選ぶ」というスキルが必要です。AIをどのようにディレクトし、データ化できない世界の情報をどのように扱うか、これらはこれからのクリエイターに求められる重要な視点となります。

※スライドの内容、提示の仕方に工夫があり、とても分かりやすい講演でした。電通などの大手の広告業界の人たちが、ChatGPTをどのように受けとめているかがよく分かりました。

Ⅱ 「サラリーマンプロデューサーたちが語る『時代に選ばれるコンテンツの作り方』」

新R25編集長 渡辺将基

https://r25.jp/

ビジネル動画メディア「RdHacQ」プロデューサー 高橋弘樹 

https://www.youtube.com/@rehacq

渡辺将基さんと高橋弘樹さんのとの対談は、雑談トークのような形で、展開されました。以下のようなテーマについて、思ったことを述べられていましたので、それぞれの意見をまとめて要点を紹介します。

①スタンスとプロデューサーとしての姿勢 / ②優れたコンテンツの要素

③プロデューサーとしての組織での役割 / ④失敗談と反省

⑤コンテンツ制作における台本の必要性 / ⑥チームの形成と企画の立て方

⑦AIの利用

1 渡辺さんの意見

新しいことを継続的に試みることで組織の資産を増やす。

観察眼と企画選定スキルが重要。

見る前から面白いコンテンツが理想的で、企画説明が過度に必要なものは避けるべき。

新しいことをやろうとする人はあまりいないから、新しいことをできる人が必要。

プロデューサーとしては熱量が必要。

失敗談としてはエンタメの方向性を誤解して受け入れられない内容のコンテンツを作った例。

コンテンツ制作においては、人数が少ない場合は台本を作らないが、テレビなどでは作るべき。

AIについては、「AIだと言われる」ということで難しいと考えている。

チーム作りについては特に考えておらず、自分が中心との立場からの意見。

2 高橋さんの意見

コンテンツ制作には自分が好きなものに時間を投下することが重要。

コンテンツのクオリティは投入した時間に比例する。

スキル磨きの一環として、ナレーションの仕方、カメラの操作、編集の方法などを学ぶことが大事。視聴後も面白さを維持するコンテンツが理想的。

組織としてはディレクターの味方になることが重要で、組織内での評価はプラス思考が大事。

プロデューサーとしては仕事を好きになることが重要。

失敗談としては"乗り物天国"が挙げられ、これからは壁打ちをしないとダメとの反省点。

コンテンツ制作においては、台本が大事で、最後の3秒で勝負する。

AIを使用することは難しいが、協力スタッフがいれば可能。

チーム作りには少人数精鋭主義が良いと考えており、企画は本屋で探すか、かけ算で考える。

※2人は、YouTube動画にもよく登場している人で、とくに高橋さんは、テレ東BIZで活躍していました。現在は、独立して活躍していますが、人気のプロデューサーです。YouTube動画の世界は、とても大きくなり、活躍の場も広がっているようで、参加者も若い人が多かったです。

<感想>

 「コンテンツ東京」全体では、編集者に役立つ場所として、クリエイターEXPOが一番よかったと思います。普段お付き合いしている人と実際に会って挨拶できることだけでなく、新しい仕事の出会いがあります。CONTENT TOKYOというのが総合名称でしたが、先端テクノロジーやXR、映像・CG制作などの展示が多く、日本のコンテンツづくりを牽引する大手企業は、あまい参加していませんでした。参加していたとしても、どちらかというとライセンシングジャパンの分野でキャラクターなどの展示をしていました。韓国企業や台湾企業の参加もありました。ただし、教育総合展などと違って、出版や教育分野ではほとんど出展がなく、一般企業向けの内容でした。ただし、最近の展示会としては、参加者がとても多くなっていたと思いました。

 私は、セミナーを二つ視聴し、その合間の時間を利用して展示会場を巡回しましたが、残念ながら、今回は新しい技術への取り組みとして編集者としては、特に興味を引くものがありませんでした。ChatGPTなどの生成系AIについて、新しい試みなどがあるのではないかと思いましたが、文部科学省の生成AIの活用ガイドラインが出される直前でもあり、嵐の前の静けさのような気がしました。多分、これから、コンテンツづくりは、大きな変化が起きそうです。そのことは、セミナーの中での発言や質問などから感じられました。

 セミナーで印象に残ったのは、電通が組織的にワーキンググループを作り、研究すると同時に、自社のサイトのサービスとして、広告クリエイターを支援するAIシステムを公開していることでした。考えて見れば、電通などは、多分、日本でいちばんクリエイターの存在に影響を与える組織です。いちばん金を動かしている組織でもあります。私は、生成系AIの出現によって、自然言語で指示することにより、多様な活用ができることで、AIの活用の民主化が起こると考えていましたが、やはり、余裕のある大企業が、アドバンテージを持っているのかもしれません。

 ところで、このレポートを書いていたら、文部科学省から、7月4日付けで「初等中等教育における生成AIの利用に関する暫定的なガイドライン」が発表されました。ガイドラインでは、生成AIの活用が適切な場面と適切ではない場面を具体的に示しており、子どもの発達段階や実態を踏まえた判断が必要だとしています。小学校段階では、いろいろ使い方に制約ありそうですが、中学校段階では、積極的な活用を進めています。全体のトーンは、政府が示したChatGPTなどの生成AIの活用への積極的な方向に沿ったものになっています。

 具体的な指摘として、現時点では活用が有効な場面を検証しつつ、限定的な利用から始めることが適切だという考えを示しています。 また、情報の真偽を確かめることや著作権保護の観点からの対応などにも細心の注意を払う必要があるとしています。 さらに、生成AIの校務での活用についても、業務の効率化や質の向上など、働き方改革の一環として活用することが考えられると説明しています。特に、中学校での英語での活用や、プログラミングでの活用などの提案は、今後の学校教育にかなりの影響を与えるような気がします。

(文科省のガイドラインは、下記のファイルで確認してください。

https://www.mext.go.jp/content/20230704-mxt_shuukyo02-000003278_003.pdf)

 現在、ChatGPTについて、私がいちばん興味を持っているのは、自然言語の処理の仕方についてです。私たち人間は、語彙を脳内の神経のネットワークのなかで保持していて、ほぼ無意識の中で、私たちの思考に合わせて言語表現を実現しています。ChatGPTは、文脈にあわせて、ある言葉の次にどんな言葉を続けるのがよいかを確率によって判断し、文章を作っていると言われています。それなのに、ほぼ人間と同じような文章を生成します。「それはどういう意味ですか」と質問すれば、読解力のある人間と同じように、「それ」の指示する内容をまるで理解しているかのような、的確な返答を返してくれます。それは、「意味を理解している」と言えるのではないかと思われるほどです。

 この点について、現在出版されている生成系AIについての解説本をいろいろ読んでみましたが、いままではよく分かりませんでした。このレポートを書くために、いろいろ調べていて、小林雅一著『生成AI──「ChatGPT」を支える技術はどのようにビジネスを変え、人間の創造性を揺るがすのか?』(ダイヤモンド社/2023.7.4)が出版されたのを知って、直ぐにAmazonでKindle版を購入して、読んでみました。そして、ある程度理解できました。

 今井むつみ・秋田喜美著『言語の本質』で、言語はシステムであるといい、単語の意味について次のように述べています。

<単語の意味の範囲は、システムの中の当該の概念分野における他の言語群との関係性によって決まる。つまり、単語の意味は当該概念分野がどのように切り分けられ、構造化されていて、その単語がその中でどの位置を占めるかによって決まる。とくに、意味が隣接する単語との差異によってその単語の意味が決まる。>

 小林雅一によれば、まさにLLM(大規模言語モデル)では、膨大な量の言語データを学習するとき、自然言語処理として、言語データをトークン(単語のような最小言語の単位)に分解し、それぞれのトークンあるいは単語を多次元のベクトル空間に位置づけるのだそうです。つまり、人間の場合で構造化されたシステムとしての単語の意味は、LLMではベクトル空間に置き換えられるわけです。LLMは、単なる数字の記号としての言葉ではなく、ベクトル表現されたシステムの中の単語として言葉を理解しているのであり、ある意味では、人間よりもより抽象的な概念として言葉の意味を理解していることになります。ここからは私の考えですが、こうしたシステムとしての語彙の体系を持っていて、LLMでは言語データの学習がある一定の量を超えると、自然な文章を生成できるようになったのではないかと思われます。

ただし、富士山の麓に生まれて、「やま」といえば「富士山」を思い浮かべる人の場合は、その「やま」の意味の中に「富士山」のイメージを引きずっていると思われます。だからこそ、人間の言語表現は必然的に、個性をもってしまうのかもしれません。しかし、そうした言葉が持つクオリアのようなものは、LLMでは、消去されていると思われます。単語をベクトル表現に変えることによって、LLMでは、よりシンプルな文章表現となるのではないかと思われます。小林雅一によれば、単語をベクトル表現に変えることによって、「King – Queen = Man – Woman」という数式で表現できるようになっていると言っています。つまり、ChatGPTが単語の意味をどのような理解しているかは、人間が単語の意味をどのように理解しているかと同じでないにしても、ある意味では、人間が無意識の中で母語を操作しているのと同じような振る舞いをするようになっているのだと思われます。

AIの研究は、人間の研究でもあり、自然言語処理の研究は、人間の言語活動の研究でもあります。ホモ・サピエンスが登場したのは20万年前くらいであり、言語を持つようになったのは、8万年前くらいではないかと言われています。そして、人類は6万年ごろからアフリカから世界に広がったと言われています。日本には到達したのは3、4万年前くらいです(異説がありますが)。その説によれば、人類はもともと同じ言語を話していたことになります。そして、地球上の人類は、いろいろな多様な言語を使っていますが、共通祖語は同じということになります。つまり、英語とか日本語とか中国語とかはある意味で方言のようなものかもしれません。今井むつみや秋田喜美がオノマトベの研究で、「どの言語でも、ある種の音に共通の反応を示す。どの民族でも、『キ』という音は堅い物のイメージ、『マ』という音は柔らかいもののイメージを持っているらしい」というのは、同じ言語を持っていた人間の子孫だから当然だといえるかもしれません。そして、それゆえにこそ、ChatGPTが、多言語を自由自在に操れるのかもしれません。

 いずれにしても、ChatGPTを初めとして、生成系AIは、これからが本番です。まだまだ、進化しそうです。数日前には、ChatGPTに「Code Interpreter」という機能がつきました。これは、ChatGPT上で、Excelファイルや画像ファイルを読み込み、統計処理させたり、画像の分析をさせたりすることが自然言語を使ってできるようにしたものです。そして、それは、Pythonなどのプラグラミングを使えるものには、もっと多様な使い方ができそうな機能です。これから、多分、話題になっていくと思われます。そうした進化を見極め、私たち編集者は、もっともらしい嘘をつくAIであるからこそ、使い倒せるようになっておく必要がありそうです。

ChatGPTについて、まとまらないレポートになってしまいましたが、日経BPから出た『ChatGPTエフェクト』(2023.6.26)に掲載されていた、東大次世代知能研究センター教授・松原仁の言葉が印象に残っていますので紹介して終わります。

<AIは実世界の物体を知らないので記号と実物を結び付けられないという「記号接地問題」も乗り越えつつあるのかもしれません。人間は赤い果実のリンゴを見たことがあるので、「リンゴ」という文字(記号)を見れば、赤い果実を思い浮かべられる。しかしAIではできないという議論ですが、そもそも本当の「リンゴ」とは何か、という哲学的な話にもなってきます。

少なくともChatGPTは、その膨大なデータを使って、リンゴについてまことしやかな情報を語れるわけです。実際のリンゴを知らなくても、リンゴという記号と、リンゴという物体が事実上「接地」していると言えるのではないかと思います。情報の量で壁を突破したというのが仮説です。>(『ChatGPTエフェクト』所載の松原仁の「ChatGPTとの付き合い方」より)