TEdgeBrowser(WebView2)でブラウザの音声認識機能(SpeechRecognition)をDelphiから使用する
Delphi 11.3(Community Edition)でTEdgeBrowserを使ってブラウザの音声認識機能(SpeechRecognition)を使用します。
(1)はじめに
Windows10の場合はMicrosoft WebView2 ランタイムのインストールを以下のURLを参照してインストールしてください。
https://mam-mam.net/delphi/tedgebrowser.html
「WebView2Loader.dll」も、
https://mam-mam.net/delphi/tedgebrowser.html
を参照してください。
また、以下URLにある「WebView2_TLB.pas」を、本プロジェクトのフォルダに配置してください、
https://mam-mam.net/delphi/tedgebrowser_webview2.html
(2)プロジェクトの作成と保存
Delphi IDEを起動し、「ファイル」⇒「Windows VCLアプリケーション -Delphi」をクリックします「ファイル」⇒「すべて保存 Ctrl+Shift+S」をクリックして、プロジェクト保存用フォルダを作成して ユニット(Unit1)とプロジェクト(Project1)を保存します
上述のように「WebView2_TLB.pas」をプロジェクトフォルダ内に配置してください。
次に、「プロジェクト」⇒「Project1をビルト Shift+F9」をクリックして事前に一度コンパイルしておきます。(フォルダが生成される)
プロジェクトフォルダ内の「win32\degub」フォルダに「files」フォルダを作成します。
「win32\degub\files」フォルダ内に、以下のHTMLファイル「index.html」を作成してUTF-8で保存してください。
<!DOCTYPE html> <html> <head> <meta charset="UTF-8"> </head> <body> <script> var SRecognition=null; window.addEventListener("load",function(){ if(window.webkitSpeechRecognition){ SRecognition = new window.webkitSpeechRecognition(); }else if(window.SpeechRecognition){ SRecognition = new window.SpeechRecognition(); } if(SRecognition!=null){ console.log("event:load");//■ロード成功 SRecognition.continuous = false; SRecognition.interimResults = false; SRecognition.lang="ja-JP"; //音声認識が完了した時のイベント SRecognition.addEventListener("result",function(event){ //let txt=document.getElementById("recognitionResult"); //txt.innerHTML+=event.results[0][0].transcript+"\n"; //txt.scrollTop=txt.scrollHeight; console.log("message:"+event.results[0][0].transcript);//■音声認識成功 SRecognition.stop(); }); //音声認識がエラー時のイベント SRecognition.addEventListener("error",function(event){ console.log("event:error");//■音声認識エラー }); SRecognition.addEventListener("end",function(event){ console.log("event:end");//■音声認識終了 }); SRecognition.addEventListener("start",function(event){ console.log("event:start");//■音声認識開始 }); SRecognition.addEventListener("audiostart",function(event){ console.log("event:audiostart");//■音声認識開始 }); //対応している場合は「音声認識開始」ボタンを使用可能にする document.getElementById("recognitionStart").addEventListener("click",function(){ SRecognition.start(); }); }else{ //未対応の場合は「音声認識開始」ボタンを使用不可にする document.getElementById("recognitionStart").setAttribute("disabled","true"); console.log("event:disabled");//■音声認識未対応 } }); </script> </body> </html>
(3)フォームの設計
フォームに、TEdgeBrowser×1個、TButton×1個と、TMemo1×1個をドラッグ&ドロップします
(4)ソースコードの記述
フォームのButton1をダブルクリックしてソースコードを記述します。
unit Unit1; interface uses Winapi.Windows, Winapi.Messages, System.SysUtils, System.Variants, System.Classes, Vcl.Graphics, Vcl.Controls, Vcl.Forms, Vcl.Dialogs, Winapi.WebView2, Winapi.ActiveX, Vcl.StdCtrls, Vcl.Edge, WebView2_TLB; type TForm1 = class(TForm) EdgeBrowser1: TEdgeBrowser; Button1: TButton; Memo1: TMemo; procedure Button1Click(Sender: TObject); procedure FormCreate(Sender: TObject); procedure EdgeBrowser1DevToolsProtocolEventReceived( Sender: TCustomEdgeBrowser; const CDPEventName, AParameterObjectAsJson: string); private { Private 宣言 } public { Public 宣言 } end; //クラスヘルパーでプロパティFWebViewを読めるようにする TMyCustomEdgeBrowser = class helper for TCustomEdgeBrowser function GetCoreWebView():ICoreWebView2_3; end; var Form1: TForm1; implementation {$R *.dfm} uses System.JSON.Serializers, System.IOUtils; { TMyCustomEdgeBrowser } //クラスヘルパーでプロパティFWebViewを読めるようにする function TMyCustomEdgeBrowser.GetCoreWebView: ICoreWebView2_3; begin with self do result:=WebView2_TLB.ICoreWebView2_3(FWebView); end; { TForm1 } procedure TForm1.Button1Click(Sender: TObject); begin Button1.Enabled:=False; //Javascriptの音声認識を開始する EdgeBrowser1.ExecuteScript('SRecognition.start()'); end; procedure TForm1.EdgeBrowser1DevToolsProtocolEventReceived( Sender: TCustomEdgeBrowser; const CDPEventName, AParameterObjectAsJson: string); type TJsonMsg=record column:Integer; level:String; line:Integer; source:String; text:String; url:String; end; TJsonMessage=record message:TJsonMsg; end; var s:TJsonSerializer; res:TJsonMessage; begin s:=TJsonSerializer.Create; try res:=s.Deserialize<TJsonMessage>(AParameterObjectAsJson); if res.message.text='event:load' then begin Button1.Enabled:=True; Memo1.Lines.Add('ロードされました'); end else if res.message.text='event:end' then begin Button1.Enabled:=True; Memo1.Lines.Add('音声認識終了'); end else if res.message.text='event:audiostart' then begin Memo1.Lines.Add('マイクに向かって話してください'); end else if pos('message:',res.message.text,1)>0 then begin Memo1.Lines.Add( '「'+res.message.text.Substring(8)+'」' ); end finally s.Free; end; end; procedure TForm1.FormCreate(Sender: TObject); var wb:ICoreWebView2_3; cachepath:string; begin Memo1.Lines.Clear; Button1.Caption:='音声認識開始'; Button1.Enabled:=False; cachepath:=ExtractFilePath(Application.ExeName)+'cache'; //キャッシュを削除する if DirectoryExists(cachepath) then TDirectory.Delete(cachepath,true); //キャッシュのフォルダを指定する //ここに作成される「EBWebView」フォルダを削除すればキャッシュを消せる EdgeBrowser1.UserDataFolder:=cachepath; if not EdgeBrowser1.WebViewCreated then begin EdgeBrowser1.CreateWebView; while not EdgeBrowser1.WebViewCreated do begin sleep(100); application.ProcessMessages; end; end; //コンソールの使用を申請する EdgeBrowser1.DefaultInterface.CallDevToolsProtocolMethod( 'Console.enable', '{}', nil); //コンソールにメッセージが出力された時に //[DevToolsProtocolEventReceived]イベンを発生させる EdgeBrowser1.SubscribeToCDPEvent('Console.messageAdded'); //WebView2の取得 wb:=EdgeBrowser1.GetCoreWebView; // https://demo/ を .\filesフォルダに割り当てます wb.SetVirtualHostNameToFolderMapping( 'demo', PWideChar(ExtractFilePath(Application.ExeName)+'files'), COREWEBVIEW2_HOST_RESOURCE_ACCESS_KIND_ALLOW ); //ローカルファイル \files\index.htmlを読みます EdgeBrowser1.Navigate('https://demo/index.html'); end; end.
(5)「WebView2Loader.dll」ファイルを実行ファイルと同じフォルダ内にコピーする
「C:\Program Files (x86)\Embarcadero\Studio\22.0\Redist\win32\WebView2Loader.dll」
ファイルを、実行ファイルと同じフォルダ内(プロジェクト保存フォルダ\Win32\Debug)にコピーします
(A)「Debug」ビルトで 「Windows 32ビット」 |
プロジェクト保存フォルダ\Win32\Debug |
(B)「Debug」ビルトで 「Windows 64ビット」 |
プロジェクト保存フォルダ\Win64\Debug |
(C)「Release」ビルトで 「Windows 32ビット」 |
プロジェクト保存フォルダ\Win32\Release |
(D)「Release」ビルトで 「Windows 64ビット」 |
プロジェクト保存フォルダ\Win64\Release |
(6)実行する
マイクをPCに取り付けてください。(ノートPC等、既にマイクが内臓されている場合はそれを使用してもOKです)
「実行」⇒「実行」をクリックすると実行します。
しばらく待つと「音声認識開始(Button1)」ボタンが有効になります。
「音声認識開始(Button1)」ボタンをクリックすると、Memo1に「マイクに向かって話してください」と表示されますので、実際にマイクに向かって何か話してください。
マイクの使用を求めるダイアログが表示された場合は「許可」をクリックしてください。
マイクから音声認識が成功した場合はその文字がMemo1に表示されます。