** Alexa、Siri、Google アシスタントは AI を使用していますか?

概要

  • Alexa、Siri、Google アシスタントなどの仮想アシスタントは、特に機械学習と自然言語処理を使用して、音声コマンドを理解して応答します。
  • これらの仮想アシスタントは、リマインダーやルーチンなど、NLP や機械学習に依存しない他の機能があるため、純粋に AI ツールではありません。
  • 仮想アシスタントプロバイダーは、大規模言語モデル (LLM) を使用して生成 AI を統合し、自然言語のリクエストをより適切に理解して、より自然な応答を提供することに取り組んでいます。Amazon、Google、Apple は、仮想アシスタント用の LLM ベースの統合を積極的に開発しています。

スマートホームをお持ちの場合、Alexa、Google アシスタント、Siri などのアシスタントを使用している可能性があります。しかし、これらの一般的なホームアシスタントは AI 機能するために使用していますか? その場合は、どのように使用していますか?

Alexa などの仮想アシスタントは AI を使用していますか?

仮想アシスタントは音声コマンドを聴取できるため、AI ベースの言語処理から恩恵を受けます。これにより、音声コマンドや質問をより適切に理解して応答できます。

すべての仮想アシスタントは互いに異なり、使用する AI の種類も異なります。ただし、機械学習はほとんどの仮想アシスタントが使用する一般的なテクノロジーです。Siri、Alexa、Google アシスタントはすべて AI と機械学習を使用してリクエストを解釈し、タスクを実行します。

Alexa は機械学習と NLP (自然言語処理) を使用してリクエストを処理します。「自然言語」とは、人間の会話で使用される言語で、自然に流れます。仮想アシスタントは音声コマンドを最適に処理するために、NLP に依存して、要求されている内容を完全に理解しています。

ただし、Amazon 自体はこれを自然言語理解、または NLU と呼んでいます。Amazon は、NLU を使用して「話者が実際に何を意味しているのかを推測し、単に話した言葉だけではない」と述べています。Amazon はここで例を使用して、ユーザーが外の様子を尋ねると、NLU が Alexa に天気予報を提供するのに役立つと述べています。具体的に「天気予報」と言わなくても、NLU により Alexa はユーザーが何を尋ねているのかを依然として見分けることができます。

さらに、Amazon は NLU は「私たちが言うことの背後にある必要なコンテキストをコンピューターに提供し、私たちが同じことを言う方法の多くのバリエーションを理解する柔軟性を提供すること」であると述べています。つまり、NLU は、ユーザーが口頭でコミュニケーションを取るときに、何を尋ねているのかをより適切に判断する方法を提供します。

Google アシスタントは NLP と多数の複雑なアルゴリズムを使用して、音声リクエストを処理し、双方向の会話を実現します。2022 年に導入された Look and Talk などの機能は、ユーザーとして単に Nest Hub を通り過ぎるのか、それとも Nest Hub と対話するつもりなのかを判断するためにこれらのアルゴリズムを使用します。

それ以来、Google アシスタントはいくつかのアップデートを受けました。2024 年 1 月、Google はメディアアラームや Google Play ブックスの音声制御などの使用頻度の低い機能を削除すると発表しました。

最後に、Apple の Siri があります。Siri は現在、NLP と機械学習の両方を使用して機能に AI を使用しています。ここで説明する他の 2 つの仮想アシスタントと同様に、Siri は音声トリガーを認識し、再帰ニューラルネットワークを使用してトリガーフレーズの「Hey Siri」を検出できます。

AI アシスタントも生成 AI の使用に向かって動いています。これは、ChatGPTなどのツールですでに使用されている、より新しいタイプの AI です。

Google と Alexa はどちらも、音声アシスタント用の生成 AI 機能を現在開発しています。Google は独自の LLM である Gemini を使用しています。一方、Amazon は現在「Alexa AI」として知られる独自の LLM を開発しています。

Amazon によると、Alexa AI により、ウェイクワードを繰り返さずに会話を継続したり、よりパーソナライズされた応答を提供したり、1 回のリクエストで複数の接続されたデバイスを制御したりするなどの利点が得られます。

2023 年 7 月、Apple が独自の LLM である Ajax に取り組んでいることが発表されました。これはチャットボットの AppleGPTで使用されます。2024 年の初め、Apple が生成 AI を使用して Siri を改善するために取り組んでいるという報告が浮上しました。Bloomberg Power On のレポートでは、Apple が Siri に「大規模なオーバーホール」を「計画している」と述べています。

具体的には、Apple が Siri と Apple Care サービスの両方用の AI コードを開発していると伝えられています。2024 年には、これらの開発に関する詳細が明らかになる可能性があります。

Siri、Alexa、Google アシスタントは AI と見なすべきですか?

仮想アシスタントが NLP や機械学習を介して AI に大きく依存していることを考えると、それらを AI として分類するのは当然です。Alexa、Google アシスタント、Siri などの音声アシスタントは、NLP と機械学習を常に使用しているため、 AI ツールと呼ばれることがよくあります。

これらの仮想アシスタントには AI を使用しない他の機能が多数ありますが、機能するには AI に大きく依存しています。したがって、それらは AI と見なすことができます。

仮想アシスタントにおける AI の未来

多くの仮想アシスタントプロバイダーに共通していることの 1 つは、現在、システムに生成 AI を使用することに取り組んでいることです。

生成 AI は、ディープラーニングとニューラルネットワークを使用して、ユーザーの指示(テキストまたは画像の形式でも可)に基づいてテキストまたはメディアを生成する、 AI の特定の分野です。生成 AI を仮想アシスタントに導入するには、LLM を統合します。

将来、生成 AI は仮想アシスタントに次の機能を提供できる可能性があります。

  • ユーザーのエクスペリエンスをさらにパーソナライズする(場所、好みなどに基づく)。
  • 日常的な問題に対するアドバイスと推奨事項を提供する。
  • ユーザーとのより有意義な会話を提供する。

AI がさらに高度になるにつれて、信頼できる音声アシスタントが非常に有能になり、あらゆる種類のことで私たちを助けることができるようになるかもしれません。 AI には、既存のテクノロジーを新しい時代の機能に押し上げる可能性があり、音声アシスタントも例外ではありません。