会話型アクションのサポートは 2023 年 6 月 13 日に終了しました。詳細については、
会話型アクションの廃止をご覧ください。
スマートフォン
コレクションでコンテンツを整理
必要に応じて、コンテンツの保存と分類を行います。
スマートフォンで利用可能なマルチモーダル機能(音声と視覚の両方を含む)をフルに使用して、外出先でユーザーをサポートしましょう。
モダリティ
画面のあるモバイル デバイスの場合、アクションは次の 2 つのモダリティをサポートする必要があります。
ユーザーはアクションの中で、これらのモダリティ間を自由に移動できます。これらの各モダリティ専用のリッチ レスポンスを設計してください。たとえばキーボード呼び出しで、SSML でサウンドが提供されている場合、サウンドは再生されません。レスポンスがユーザーの音を聞くことに依存し、デバイスがキーボード モダリティを使用している場合、アクションは再生される音の種類を説明する必要があります。
スマートフォンの画面の使用可否と入力モダリティは、次のコードを使用して検出できます。
- 画面の有無:
if (conv.screen)
- 音声モダリティの使用:
if (conv.input.type === 'VOICE')
- キーボード モダリティの使用:
if (conv.input.type === 'KEYBOARD')
ヒントとベスト プラクティス
- リッチ レスポンスとテーマのカスタマイズを使用して、画面を最大限に活用します。
- プッシュ通知を使用して、モバイル デバイスにユーザーの注意を引き続けることを検討してください。
- ユーザーは外出中であることを念頭に置き、できるだけ早くタスクを達成できるようにサポートしてください。自然で直感的な会話フローを作成する方法については、会話デザインガイドをご覧ください。
- ウェブサイト、モバイルアプリ、ソーシャル メディアからアクションに直接ディープリンクして、音声での操作に適したエクスペリエンスを提供します。

次のアクションを試す
次のサンプルを試す
特に記載のない限り、このページのコンテンツはクリエイティブ・コモンズの表示 4.0 ライセンスにより使用許諾されます。コードサンプルは Apache 2.0 ライセンスにより使用許諾されます。詳しくは、Google Developers サイトのポリシーをご覧ください。Java は Oracle および関連会社の登録商標です。
最終更新日 2025-07-25 UTC。
[null,null,["最終更新日 2025-07-25 UTC。"],[[["\u003cp\u003eBuild Actions that enable users to accomplish tasks on their mobile devices using voice and visual interactions.\u003c/p\u003e\n"],["\u003cp\u003eSupport both voice and keyboard invocation methods, tailoring responses appropriately for each modality.\u003c/p\u003e\n"],["\u003cp\u003eEnhance the user experience with rich responses, push notifications, and concise conversational flows.\u003c/p\u003e\n"],["\u003cp\u003eLeverage deep links to seamlessly integrate your Action with other platforms like websites and apps.\u003c/p\u003e\n"]]],["Actions on mobile devices should support both voice and keyboard input. Developers can detect screen availability and input modality using `conv.screen` and `conv.input.type` respectively. When using keyboard input, sounds should be described in text instead of played. Rich responses and theme customization enhance screen usage, while push notifications and deep links maintain user engagement. Prioritize quick task completion and intuitive conversational flows, considering the user is on the go.\n"],null,["# Smartphones\n\nHelp users get things done while they're on-the-go, using the full multimodal\ncapabilities available on phones, including both voice and visuals.\n\nModalities\n----------\n\nFor mobile devices which have screens, your Action needs to support two modalities:\n\n- Voice invocation\n- Keyboard invocation\n\nNote that users are free to move between these modalities within an Action. Make\nsure to design your rich responses specifically for each of these\nmodalities. For example, with keyboard invocation, no sounds are played if they\nare provided in [SSML](/assistant/conversational/df-asdk/ssml). If the response relies on the user hearing a sound and\nthe device is using keyboard modality, your Action needs to describe what kind\nsound of sound is played.\n\nTo detect the availability of a screen and the [input modality](/assistant/conversational/webhook/reference/rest/Shared.Types/InputType) on a smartphone, you can use the following code:\n\n- **Has screen** : `if (conv.screen)`\n- **Uses voice modality** : `if (conv.input.type === 'VOICE')`\n- **Uses keyboard modality** : `if (conv.input.type === 'KEYBOARD')`\n\nTips \\& best practices\n----------------------\n\n- Use [rich responses](/assistant/conversational/df-asdk/rich-responses) and [theme customization](/assistant/conversational/df-asdk/rich-responses#customizing_your_responses) to make the most out of the screen.\n- Consider using [push notifications](/assistant/engagement/notifications) to keep users engaged on mobile devices.\n- Remember that the user is on the go and try to help them achieve their task as quickly as possible. To learn how to craft natural and intuitive conversational flows, see the [conversation design guide](/assistant/conversational/df-asdk/design).\n- [Deep link directly to your Action](/assistant/engagement/assistant-links) from your website, mobile app, or social media for experiences better handled via voice.\n\nTry these Actions\n-----------------\n\n- [Starbucks](//assistant.google.com/services/a/uid/000000f2fb2c47e0?jsmode)\n- [SpotHero](//assistant.google.com/services/a/uid/00000031e1da95c6?jsmode)\n- [My Storytime](//assistant.google.com/services/a/id/6ebb0e742351c0dd?jsmode)\n\nTry this sample\n---------------\n\n- [Dialogflow conversation components sample](//github.com/actions-on-google/dialogflow-conversation-components-nodejs)"]]