DOORS DX

ベストなDXへの入り口が
見つかるメディア

生成AIのマルチモーダリティに関する技術調査【技術動向調査】

公開日
2023.10.18
更新日
2024.02.26

論文4: AudioPaLM: A Large Language Model That Can Speak and Listen


選定理由

4つ目の論文は音声に関する論文です。
選出した論文はGoogleが6月に発表した、テキストと音声の両方に対応可能な大規模な音声理解・生成モデルであるAudioPaLMについての論文です。
音声翻訳のベンチマークではOpneAIのWhisperを上回っており、今後の音声翻訳ツールのデファクトスタンダードにもなり得るモデルであるため、選出いたしました。

論文概要

Point
  • テキストと音声の両方に対応可能な大規模言語モデルであるAudioPaLMを提案している
  • AudioPaLMはテキストベースのLLMであるPaLM-2と音声ベースのLLMであるAudioLMを統合したモデル
  • 音声から他言語音声への翻訳、音声から他言語テキストへの翻訳、自動音声認識が高精度で可能となっている
  • 話者のイントネーションなどの副言語情報も反映される
  • 現在はデモページが公開されている

提案手法

AudioPaLMの機能

  • 音声認識(ASR): 音声データをテキストデータに変換できます。
  • テキストから音声への合成(TTS): テキストデータを音声データに変換できます。
  • 音声から音声への翻訳(S2ST): ある言語の音声データを別の言語の音声データに変換できます。
  • 音声からテキストへの翻訳(AST): ある言語の音声データを別の言語のテキストデータに変換できます。

AudioPaLMの特徴

  • モデル構造: PaLMベースのデコーダのみのモデルです。
  • Pre-trainingとFine-tuning: テキストベースのLLMであるPaLM-2で事前トレーニングを行い、音声とテキストの両方を含むデータでFine-tuningされます。
  • トークンの拡張: モデルのトークン辞書を音声波形を表すアコースティックなトークンに拡張し、テキストトークンと音声トークンを同じembedding空間にマッピングされます。
  • ゼロショット学習: トレーニング中に見られなかった音声入力/ターゲット言語の組み合わせを持つ音声翻訳が実行できます。
  • 単一のアーキテクチャ: 音声認識、テキストから音声への合成、音声から音声への翻訳など、異なるタスクを単一のアーキテクチャで実行できます。
  • 副言語情報の保持: 話者のイントネーションなどの副言語情報を保持できます。

既存手法との比較
下表の通り、音声翻訳(AST)・音声認識(ASR)において既存手法を大きく上まっていることがわかります。

提案手法の課題

論文で言及されている課題は以下の通りです。

  • オーディオ生成のクオリティは、オーディオトークナイザーの質に依存する
  • 凍結ではなくモデル全体をfine-tuningする必要がある
  • オーディオトークンやオーディオ生成タスクの評価ベンチマークには研究・改善の余地がある

レビュー会FB

Q: GoogleからAPIで提供されてるのか?

  • デモは公開されているが、おそらくAPIとしてはまだ提供されていない

Q: 日本語には対応しているか?

  • デモでは日本語の音声認識と日本語→英語の翻訳はあるが、他言語→日本語のデモはないため、どの程度対応しているのかは不明
  • デモを見る限りでは日本語のクオリティは高くはなさそう

関連論文

タイトル 概要
PaLM 2 Technical Report GoogleのテキストベースのLLMであるPaLM2についての論文
PaLM: Scaling Language Modeling with Pathways GPaLM2の元となるPaLMについての論文
AudioLM: a Language Modeling Approach to Audio Generation Googleの音声ベースのLLMであるAudioLMについての論文
Robust Speech Recognition via Large-Scale Weak Supervision OpenAIの音声処理モデルであるWhisperについての論文


論文4: AudioPaLM: A Large Language Model That Can Speak and Listen

選定理由

4つ目の論文は音声に関する論文です。
選出した論文はGoogleが6月に発表した、テキストと音声の両方に対応可能な大規模な音声理解・生成モデルであるAudioPaLMについての論文です。
音声翻訳のベンチマークではOpneAIのWhisperを上回っており、今後の音声翻訳ツールのデファクトスタンダードにもなり得るモデルであるため、選出いたしました。

論文概要

Point
  • テキストと音声の両方に対応可能な大規模言語モデルであるAudioPaLMを提案している
  • AudioPaLMはテキストベースのLLMであるPaLM-2と音声ベースのLLMであるAudioLMを統合したモデル
  • 音声から他言語音声への翻訳、音声から他言語テキストへの翻訳、自動音声認識が高精度で可能となっている
  • 話者のイントネーションなどの副言語情報も反映される
  • 現在はデモページが公開されている

提案手法

AudioPaLMの機能

  • 音声認識(ASR): 音声データをテキストデータに変換できます。
  • テキストから音声への合成(TTS): テキストデータを音声データに変換できます。
  • 音声から音声への翻訳(S2ST): ある言語の音声データを別の言語の音声データに変換できます。
  • 音声からテキストへの翻訳(AST): ある言語の音声データを別の言語のテキストデータに変換できます。

AudioPaLMの特徴

  • モデル構造: PaLMベースのデコーダのみのモデルです。
  • Pre-trainingとFine-tuning: テキストベースのLLMであるPaLM-2で事前トレーニングを行い、音声とテキストの両方を含むデータでFine-tuningされます。
  • トークンの拡張: モデルのトークン辞書を音声波形を表すアコースティックなトークンに拡張し、テキストトークンと音声トークンを同じembedding空間にマッピングされます。
  • ゼロショット学習: トレーニング中に見られなかった音声入力/ターゲット言語の組み合わせを持つ音声翻訳が実行できます。
  • 単一のアーキテクチャ: 音声認識、テキストから音声への合成、音声から音声への翻訳など、異なるタスクを単一のアーキテクチャで実行できます。
  • 副言語情報の保持: 話者のイントネーションなどの副言語情報を保持できます。

既存手法との比較
下表の通り、音声翻訳(AST)・音声認識(ASR)において既存手法を大きく上まっていることがわかります。

提案手法の課題

論文で言及されている課題は以下の通りです。

  • オーディオ生成のクオリティは、オーディオトークナイザーの質に依存する
  • 凍結ではなくモデル全体をfine-tuningする必要がある
  • オーディオトークンやオーディオ生成タスクの評価ベンチマークには研究・改善の余地がある

レビュー会FB

Q: GoogleからAPIで提供されてるのか?

  • デモは公開されているが、おそらくAPIとしてはまだ提供されていない

Q: 日本語には対応しているか?

  • デモでは日本語の音声認識と日本語→英語の翻訳はあるが、他言語→日本語のデモはないため、どの程度対応しているのかは不明
  • デモを見る限りでは日本語のクオリティは高くはなさそう

関連論文

タイトル 概要
PaLM 2 Technical Report GoogleのテキストベースのLLMであるPaLM2についての論文
PaLM: Scaling Language Modeling with Pathways GPaLM2の元となるPaLMについての論文
AudioLM: a Language Modeling Approach to Audio Generation Googleの音声ベースのLLMであるAudioLMについての論文
Robust Speech Recognition via Large-Scale Weak Supervision OpenAIの音声処理モデルであるWhisperについての論文

論文4: AudioPaLM: A Large Language Model That Can Speak and Listen

選定理由

4つ目の論文は音声に関する論文です。
選出した論文はGoogleが6月に発表した、テキストと音声の両方に対応可能な大規模な音声理解・生成モデルであるAudioPaLMについての論文です。
音声翻訳のベンチマークではOpneAIのWhisperを上回っており、今後の音声翻訳ツールのデファクトスタンダードにもなり得るモデルであるため、選出いたしました。

論文概要

Point
  • テキストと音声の両方に対応可能な大規模言語モデルであるAudioPaLMを提案している
  • AudioPaLMはテキストベースのLLMであるPaLM-2と音声ベースのLLMであるAudioLMを統合したモデル
  • 音声から他言語音声への翻訳、音声から他言語テキストへの翻訳、自動音声認識が高精度で可能となっている
  • 話者のイントネーションなどの副言語情報も反映される
  • 現在はデモページが公開されている

提案手法

AudioPaLMの機能

  • 音声認識(ASR): 音声データをテキストデータに変換できます。
  • テキストから音声への合成(TTS): テキストデータを音声データに変換できます。
  • 音声から音声への翻訳(S2ST): ある言語の音声データを別の言語の音声データに変換できます。
  • 音声からテキストへの翻訳(AST): ある言語の音声データを別の言語のテキストデータに変換できます。

AudioPaLMの特徴

  • モデル構造: PaLMベースのデコーダのみのモデルです。
  • Pre-trainingとFine-tuning: テキストベースのLLMであるPaLM-2で事前トレーニングを行い、音声とテキストの両方を含むデータでFine-tuningされます。
  • トークンの拡張: モデルのトークン辞書を音声波形を表すアコースティックなトークンに拡張し、テキストトークンと音声トークンを同じembedding空間にマッピングされます。
  • ゼロショット学習: トレーニング中に見られなかった音声入力/ターゲット言語の組み合わせを持つ音声翻訳が実行できます。
  • 単一のアーキテクチャ: 音声認識、テキストから音声への合成、音声から音声への翻訳など、異なるタスクを単一のアーキテクチャで実行できます。
  • 副言語情報の保持: 話者のイントネーションなどの副言語情報を保持できます。

既存手法との比較
下表の通り、音声翻訳(AST)・音声認識(ASR)において既存手法を大きく上まっていることがわかります。

提案手法の課題

論文で言及されている課題は以下の通りです。

  • オーディオ生成のクオリティは、オーディオトークナイザーの質に依存する
  • 凍結ではなくモデル全体をfine-tuningする必要がある
  • オーディオトークンやオーディオ生成タスクの評価ベンチマークには研究・改善の余地がある

レビュー会FB

Q: GoogleからAPIで提供されてるのか?

  • デモは公開されているが、おそらくAPIとしてはまだ提供されていない

Q: 日本語には対応しているか?

  • デモでは日本語の音声認識と日本語→英語の翻訳はあるが、他言語→日本語のデモはないため、どの程度対応しているのかは不明
  • デモを見る限りでは日本語のクオリティは高くはなさそう

関連論文

タイトル 概要
PaLM 2 Technical Report GoogleのテキストベースのLLMであるPaLM2についての論文
PaLM: Scaling Language Modeling with Pathways GPaLM2の元となるPaLMについての論文
AudioLM: a Language Modeling Approach to Audio Generation Googleの音声ベースのLLMであるAudioLMについての論文
Robust Speech Recognition via Large-Scale Weak Supervision OpenAIの音声処理モデルであるWhisperについての論文

論文4: AudioPaLM: A Large Language Model That Can Speak and Listen

選定理由

4つ目の論文は音声に関する論文です。
選出した論文はGoogleが6月に発表した、テキストと音声の両方に対応可能な大規模な音声理解・生成モデルであるAudioPaLMについての論文です。
音声翻訳のベンチマークではOpneAIのWhisperを上回っており、今後の音声翻訳ツールのデファクトスタンダードにもなり得るモデルであるため、選出いたしました。

論文概要

Point
  • テキストと音声の両方に対応可能な大規模言語モデルであるAudioPaLMを提案している
  • AudioPaLMはテキストベースのLLMであるPaLM-2と音声ベースのLLMであるAudioLMを統合したモデル
  • 音声から他言語音声への翻訳、音声から他言語テキストへの翻訳、自動音声認識が高精度で可能となっている
  • 話者のイントネーションなどの副言語情報も反映される
  • 現在はデモページが公開されている

提案手法

AudioPaLMの機能

  • 音声認識(ASR): 音声データをテキストデータに変換できます。
  • テキストから音声への合成(TTS): テキストデータを音声データに変換できます。
  • 音声から音声への翻訳(S2ST): ある言語の音声データを別の言語の音声データに変換できます。
  • 音声からテキストへの翻訳(AST): ある言語の音声データを別の言語のテキストデータに変換できます。

AudioPaLMの特徴

  • モデル構造: PaLMベースのデコーダのみのモデルです。
  • Pre-trainingとFine-tuning: テキストベースのLLMであるPaLM-2で事前トレーニングを行い、音声とテキストの両方を含むデータでFine-tuningされます。
  • トークンの拡張: モデルのトークン辞書を音声波形を表すアコースティックなトークンに拡張し、テキストトークンと音声トークンを同じembedding空間にマッピングされます。
  • ゼロショット学習: トレーニング中に見られなかった音声入力/ターゲット言語の組み合わせを持つ音声翻訳が実行できます。
  • 単一のアーキテクチャ: 音声認識、テキストから音声への合成、音声から音声への翻訳など、異なるタスクを単一のアーキテクチャで実行できます。
  • 副言語情報の保持: 話者のイントネーションなどの副言語情報を保持できます。

既存手法との比較
下表の通り、音声翻訳(AST)・音声認識(ASR)において既存手法を大きく上まっていることがわかります。

提案手法の課題

論文で言及されている課題は以下の通りです。

  • オーディオ生成のクオリティは、オーディオトークナイザーの質に依存する
  • 凍結ではなくモデル全体をfine-tuningする必要がある
  • オーディオトークンやオーディオ生成タスクの評価ベンチマークには研究・改善の余地がある

レビュー会FB

Q: GoogleからAPIで提供されてるのか?

  • デモは公開されているが、おそらくAPIとしてはまだ提供されていない

Q: 日本語には対応しているか?

  • デモでは日本語の音声認識と日本語→英語の翻訳はあるが、他言語→日本語のデモはないため、どの程度対応しているのかは不明
  • デモを見る限りでは日本語のクオリティは高くはなさそう

関連論文

タイトル 概要
PaLM 2 Technical Report GoogleのテキストベースのLLMであるPaLM2についての論文
PaLM: Scaling Language Modeling with Pathways GPaLM2の元となるPaLMについての論文
AudioLM: a Language Modeling Approach to Audio Generation Googleの音声ベースのLLMであるAudioLMについての論文
Robust Speech Recognition via Large-Scale Weak Supervision OpenAIの音声処理モデルであるWhisperについての論文

論文4: AudioPaLM: A Large Language Model That Can Speak and Listen

選定理由

4つ目の論文は音声に関する論文です。
選出した論文はGoogleが6月に発表した、テキストと音声の両方に対応可能な大規模な音声理解・生成モデルであるAudioPaLMについての論文です。
音声翻訳のベンチマークではOpneAIのWhisperを上回っており、今後の音声翻訳ツールのデファクトスタンダードにもなり得るモデルであるため、選出いたしました。

論文概要

Point
  • テキストと音声の両方に対応可能な大規模言語モデルであるAudioPaLMを提案している
  • AudioPaLMはテキストベースのLLMであるPaLM-2と音声ベースのLLMであるAudioLMを統合したモデル
  • 音声から他言語音声への翻訳、音声から他言語テキストへの翻訳、自動音声認識が高精度で可能となっている
  • 話者のイントネーションなどの副言語情報も反映される
  • 現在はデモページが公開されている

提案手法

AudioPaLMの機能

  • 音声認識(ASR): 音声データをテキストデータに変換できます。
  • テキストから音声への合成(TTS): テキストデータを音声データに変換できます。
  • 音声から音声への翻訳(S2ST): ある言語の音声データを別の言語の音声データに変換できます。
  • 音声からテキストへの翻訳(AST): ある言語の音声データを別の言語のテキストデータに変換できます。

AudioPaLMの特徴

  • モデル構造: PaLMベースのデコーダのみのモデルです。
  • Pre-trainingとFine-tuning: テキストベースのLLMであるPaLM-2で事前トレーニングを行い、音声とテキストの両方を含むデータでFine-tuningされます。
  • トークンの拡張: モデルのトークン辞書を音声波形を表すアコースティックなトークンに拡張し、テキストトークンと音声トークンを同じembedding空間にマッピングされます。
  • ゼロショット学習: トレーニング中に見られなかった音声入力/ターゲット言語の組み合わせを持つ音声翻訳が実行できます。
  • 単一のアーキテクチャ: 音声認識、テキストから音声への合成、音声から音声への翻訳など、異なるタスクを単一のアーキテクチャで実行できます。
  • 副言語情報の保持: 話者のイントネーションなどの副言語情報を保持できます。

既存手法との比較
下表の通り、音声翻訳(AST)・音声認識(ASR)において既存手法を大きく上まっていることがわかります。

提案手法の課題

論文で言及されている課題は以下の通りです。

  • オーディオ生成のクオリティは、オーディオトークナイザーの質に依存する
  • 凍結ではなくモデル全体をfine-tuningする必要がある
  • オーディオトークンやオーディオ生成タスクの評価ベンチマークには研究・改善の余地がある

レビュー会FB

Q: GoogleからAPIで提供されてるのか?

  • デモは公開されているが、おそらくAPIとしてはまだ提供されていない

Q: 日本語には対応しているか?

  • デモでは日本語の音声認識と日本語→英語の翻訳はあるが、他言語→日本語のデモはないため、どの程度対応しているのかは不明
  • デモを見る限りでは日本語のクオリティは高くはなさそう

関連論文

タイトル 概要
PaLM 2 Technical Report GoogleのテキストベースのLLMであるPaLM2についての論文
PaLM: Scaling Language Modeling with Pathways GPaLM2の元となるPaLMについての論文
AudioLM: a Language Modeling Approach to Audio Generation Googleの音声ベースのLLMであるAudioLMについての論文
Robust Speech Recognition via Large-Scale Weak Supervision OpenAIの音声処理モデルであるWhisperについての論文

論文4: AudioPaLM: A Large Language Model That Can Speak and Listen

選定理由

4つ目の論文は音声に関する論文です。
選出した論文はGoogleが6月に発表した、テキストと音声の両方に対応可能な大規模な音声理解・生成モデルであるAudioPaLMについての論文です。
音声翻訳のベンチマークではOpneAIのWhisperを上回っており、今後の音声翻訳ツールのデファクトスタンダードにもなり得るモデルであるため、選出いたしました。

論文概要

Point
  • テキストと音声の両方に対応可能な大規模言語モデルであるAudioPaLMを提案している
  • AudioPaLMはテキストベースのLLMであるPaLM-2と音声ベースのLLMであるAudioLMを統合したモデル
  • 音声から他言語音声への翻訳、音声から他言語テキストへの翻訳、自動音声認識が高精度で可能となっている
  • 話者のイントネーションなどの副言語情報も反映される
  • 現在はデモページが公開されている

提案手法

AudioPaLMの機能

  • 音声認識(ASR): 音声データをテキストデータに変換できます。
  • テキストから音声への合成(TTS): テキストデータを音声データに変換できます。
  • 音声から音声への翻訳(S2ST): ある言語の音声データを別の言語の音声データに変換できます。
  • 音声からテキストへの翻訳(AST): ある言語の音声データを別の言語のテキストデータに変換できます。

AudioPaLMの特徴

  • モデル構造: PaLMベースのデコーダのみのモデルです。
  • Pre-trainingとFine-tuning: テキストベースのLLMであるPaLM-2で事前トレーニングを行い、音声とテキストの両方を含むデータでFine-tuningされます。
  • トークンの拡張: モデルのトークン辞書を音声波形を表すアコースティックなトークンに拡張し、テキストトークンと音声トークンを同じembedding空間にマッピングされます。
  • ゼロショット学習: トレーニング中に見られなかった音声入力/ターゲット言語の組み合わせを持つ音声翻訳が実行できます。
  • 単一のアーキテクチャ: 音声認識、テキストから音声への合成、音声から音声への翻訳など、異なるタスクを単一のアーキテクチャで実行できます。
  • 副言語情報の保持: 話者のイントネーションなどの副言語情報を保持できます。

既存手法との比較
下表の通り、音声翻訳(AST)・音声認識(ASR)において既存手法を大きく上まっていることがわかります。

提案手法の課題

論文で言及されている課題は以下の通りです。

  • オーディオ生成のクオリティは、オーディオトークナイザーの質に依存する
  • 凍結ではなくモデル全体をfine-tuningする必要がある
  • オーディオトークンやオーディオ生成タスクの評価ベンチマークには研究・改善の余地がある

レビュー会FB

Q: GoogleからAPIで提供されてるのか?

  • デモは公開されているが、おそらくAPIとしてはまだ提供されていない

Q: 日本語には対応しているか?

  • デモでは日本語の音声認識と日本語→英語の翻訳はあるが、他言語→日本語のデモはないため、どの程度対応しているのかは不明
  • デモを見る限りでは日本語のクオリティは高くはなさそう

関連論文

タイトル 概要
PaLM 2 Technical Report GoogleのテキストベースのLLMであるPaLM2についての論文
PaLM: Scaling Language Modeling with Pathways GPaLM2の元となるPaLMについての論文
AudioLM: a Language Modeling Approach to Audio Generation Googleの音声ベースのLLMであるAudioLMについての論文
Robust Speech Recognition via Large-Scale Weak Supervision OpenAIの音声処理モデルであるWhisperについての論文

論文4: AudioPaLM: A Large Language Model That Can Speak and Listen

選定理由

4つ目の論文は音声に関する論文です。
選出した論文はGoogleが6月に発表した、テキストと音声の両方に対応可能な大規模な音声理解・生成モデルであるAudioPaLMについての論文です。
音声翻訳のベンチマークではOpneAIのWhisperを上回っており、今後の音声翻訳ツールのデファクトスタンダードにもなり得るモデルであるため、選出いたしました。

論文概要

Point
  • テキストと音声の両方に対応可能な大規模言語モデルであるAudioPaLMを提案している
  • AudioPaLMはテキストベースのLLMであるPaLM-2と音声ベースのLLMであるAudioLMを統合したモデル
  • 音声から他言語音声への翻訳、音声から他言語テキストへの翻訳、自動音声認識が高精度で可能となっている
  • 話者のイントネーションなどの副言語情報も反映される
  • 現在はデモページが公開されている

提案手法

AudioPaLMの機能

  • 音声認識(ASR): 音声データをテキストデータに変換できます。
  • テキストから音声への合成(TTS): テキストデータを音声データに変換できます。
  • 音声から音声への翻訳(S2ST): ある言語の音声データを別の言語の音声データに変換できます。
  • 音声からテキストへの翻訳(AST): ある言語の音声データを別の言語のテキストデータに変換できます。

AudioPaLMの特徴

  • モデル構造: PaLMベースのデコーダのみのモデルです。
  • Pre-trainingとFine-tuning: テキストベースのLLMであるPaLM-2で事前トレーニングを行い、音声とテキストの両方を含むデータでFine-tuningされます。
  • トークンの拡張: モデルのトークン辞書を音声波形を表すアコースティックなトークンに拡張し、テキストトークンと音声トークンを同じembedding空間にマッピングされます。
  • ゼロショット学習: トレーニング中に見られなかった音声入力/ターゲット言語の組み合わせを持つ音声翻訳が実行できます。
  • 単一のアーキテクチャ: 音声認識、テキストから音声への合成、音声から音声への翻訳など、異なるタスクを単一のアーキテクチャで実行できます。
  • 副言語情報の保持: 話者のイントネーションなどの副言語情報を保持できます。

既存手法との比較
下表の通り、音声翻訳(AST)・音声認識(ASR)において既存手法を大きく上まっていることがわかります。

提案手法の課題

論文で言及されている課題は以下の通りです。

  • オーディオ生成のクオリティは、オーディオトークナイザーの質に依存する
  • 凍結ではなくモデル全体をfine-tuningする必要がある
  • オーディオトークンやオーディオ生成タスクの評価ベンチマークには研究・改善の余地がある

レビュー会FB

Q: GoogleからAPIで提供されてるのか?

  • デモは公開されているが、おそらくAPIとしてはまだ提供されていない

Q: 日本語には対応しているか?

  • デモでは日本語の音声認識と日本語→英語の翻訳はあるが、他言語→日本語のデモはないため、どの程度対応しているのかは不明
  • デモを見る限りでは日本語のクオリティは高くはなさそう

関連論文

タイトル 概要
PaLM 2 Technical Report GoogleのテキストベースのLLMであるPaLM2についての論文
PaLM: Scaling Language Modeling with Pathways GPaLM2の元となるPaLMについての論文
AudioLM: a Language Modeling Approach to Audio Generation Googleの音声ベースのLLMであるAudioLMについての論文
Robust Speech Recognition via Large-Scale Weak Supervision OpenAIの音声処理モデルであるWhisperについての論文

まとめ

今回は、生成AI・基盤モデルのマルチモーダリティに関する技術論文を4つご紹介させていただきました。
今後も、社内で実施しているレビュー会での発表内容をブログで発信させていただくつもりですので、ご期待ください。


このページをシェアする

株式会社ブレインパッドについて

2004年の創業以来、「データ活用の促進を通じて持続可能な未来をつくる」をミッションに掲げ、データの可能性をまっすぐに信じてきたブレインパッドは、データ活用を核としたDX実践経験により、あらゆる社会課題や業界、企業の課題解決に貢献してきました。 そのため、「DXの核心はデータ活用」にあり、日々蓄積されるデータをうまく活用し、データドリブン経営に舵を切ることであると私達は考えています。

メールマガジン

Mail Magazine