用DirectShow實現QQ的音視頻聊天功能
2005-07-19 14:11作者:智慧的魚出處:天極網責任編輯:方舟
當下比較流行的即時通信工具,比如MSN,QQ等都實現了視音頻的功能,通過視頻,音頻,我們可以更好的和朋友通過網絡進行溝通,本文通過DirectShow技術模擬QQ實現了視頻和音頻的採集,傳輸,基本實現了QQ的視音頻聊天的功能。
網絡視音頻系統主要功能就在於視音頻的採集,網絡傳輸兩個方面,通過Video Capture系列API函數,你就可以輕鬆的搞定視頻捕捉,但是對於視頻的網絡傳輸,則要費一番功夫了。 對於視音頻數據的傳輸,只簡單地使用數據報套接字傳輸音視頻數據是不可行的,還必須在UDP層上採用RTP(實時傳輸協議)和RTCP(實時傳輸控制協議)來改善服務質量。實時傳輸協議提供具有實時特徵的、端到端的數據傳輸服務。我們在音視頻數據前插入包含有載荷標識、序號、時間戳和同步源標識符的RTP包頭,然後利用數據報套接字在IP網絡上傳輸RTP包,以此改善連續重放效果和音視頻同步。實時傳輸控制協議RTCP用於RTP的控制,它最基本的功能是利用發送者報告和接收者報告來推斷網絡的服務質量,若擁塞狀況嚴重,則改用低速率編碼標準或降低數據傳輸比特率,以減少網絡負荷,提供較好的Q.S保證。
Directshow對於音視頻的採集提供了很好的接口,利用ICaptureGraphBuilder2接口可以很輕鬆的建立起視頻捕捉的graph圖,通過枚舉音頻設備Filter,也可以很輕鬆的實現音頻的捕捉,有點麻煩的是音視頻數據的傳輸,我們可以自己封裝RTP和RTCP的協議,來自己實現一個filter,用來發送和接收音視頻數據,當然了Directshow也提供了一組支持使用RTP協議的網絡傳輸多媒體流的Filters。你也完全可以用Directshow提供的RTP系列的filter實現數據的傳輸。
下面分析一下這些RTP Filters。
新定義的Filter包括 RTP Source Filter ,RTP Render Filter,RTP Demux Filter,RTP Receive Playload Handler (RPH) filter,RTP Send Payload (SPH) filter,使用這5個filter構建一個通過RTP協議傳輸音視頻數據的Graph是沒有問題的。
RTP Source filter被用來從一個單獨的RTP會話中接收RTP和RTCP包。這個filter提供一個指定發送給其它主機RTCP接收器報告和指定網絡地址和端口接口來接收RTP會話的接口。
RTP Rend filter是用來將數據發到網絡上的一個filter,這個filter也提供了和RTP source Filter 類似的接口。
RTP Demux filter用來多路分離來自 RTP Source filter的RTP 包,這個filter有一個或者多個輸出的pin。這個Filter提供瞭如何控制多路分離和如何分配到特定輸出pin的接口。
RTP RPH Filter 是用來網絡過來的RTP包還原成原來的數據格式,主要支持H.261,H.263,Indeo,G.711,G.723和G.729和常見的多種音視頻負載類型。
RTP SPH filter則和RPH filter的功能相對,它的任務是將音視頻 壓縮filter輸出的 數據分解爲RTP包,它提供的接口有指定最大生成包大小和pt值。
下面我們看看如何用這些filter來搭建我們採集和傳輸的graph圖。
圖1和圖2展示了DirectShow RTP中定義的filters如何運用。圖1是一個採集本地多媒體數據並使用RTP協議通過網絡發送的filter graph。它包含一個輸出原始視頻幀的視頻採集filter,緊跟一個壓縮幀的編碼filter。一旦壓縮,這些幀就會被髮送到RTP SPH filter,分片打包,生成RTP包,對應的發送到 RTP Render filter,通過網絡傳輸這些包。圖2展現了一個filter graph,用來接收包含視頻流RTP包,播放視頻。這個graph由一個用來接收包的RTP Source filter,一個根據源和負載類型進行分類的RTP Demux filter,一個把RTP包轉爲壓縮視頻幀的RTP RPH filter組成。這些filter隨後的是用來解壓幀的解碼filter,一個顯示未壓縮幀的渲染filter。
有了RTP filter的幫助我們就可以完成類似qq的功能了,可以實現在網絡上進行視頻和音頻的交互了,下面我給出在網絡上兩個客戶端A和B進行音頻和視頻交互的Graph圖。這裏我對圖1和圖2中的RTP filter進行了自己封裝,將編解碼filter直接封裝到了RTP Source filter 和RTP Render filter中,這樣Graph圖就顯得很簡潔,RTP Source filter只是用來接收網絡過來的音視頻數據,然後將數據傳遞給客戶程序,RTP Render filter則是將採集到的音視頻數據發送到網絡上的另一個客戶端,編解碼則的工作則封裝到這兩個filter之中。
圖3 網絡視頻和音頻交互的Graph圖
如果你也想自己封裝自己的Source 和Render filter,首先你要選擇自己的編解碼,視頻編解碼是選擇H261,H263,還是 MEPG4,音頻是選擇G729還是G711,要首先確定好。選好編解碼,封裝的工作就簡單了。
不多說了,下面看看我給出的代碼吧。
首先要定義一下用到的四個RTP filter的CLSID。
view plaincopy to clipboardprint?
01.static const GUID CLSID_FG729Render = { 0x3556f7d8, 0x5b5, 0x4015, { 0xb9, 0x40, 0x65, 0xb8, 0x8, 0x94, 0xc8, 0xf9 } }; //音頻發送
02.static const GUID CLSID_FG729Source = { 0x290bf11a, 0x93b4, 0x4662, { 0xb1, 0xa3, 0xa, 0x53, 0x51, 0xeb, 0xe5, 0x8e } };//音頻接收
03.static const GUID CLSID_FH263Source = { 0xa0431ccf, 0x75db, 0x463e, { 0xb1, 0xcd, 0xe, 0x9d, 0xb6, 0x67, 0xba, 0x72 } };//視頻接收
04.static const GUID CLSID_FH263Render = { 0x787969cf, 0xc1b6, 0x41c5, { 0xba, 0xa8, 0x4e, 0xff, 0xa3, 0xdb, 0xe4, 0x1f } };//視頻發送
05.//發送和接收音視頻數據的filter
06.CComPtr< IBaseFilter > m_pAudioRtpRender ;
07.CComPtr< IBaseFilter > m_pAudioRtpSource ;
08.CComPtr< IBaseFilter > m_pVideoRtpRender ;
09.CComPtr< IBaseFilter > m_pVideoRtpSource ;
10.
11.char szClientA[100];
12.int iVideoPort = 9937;
13.int iAudioPort = 9938;
14.
15.//構建視頻的graph圖,併發送數據
16.CComPtr< IGraphBuilder > m_pVideoGraphBuilder; //視頻圖形管理器
17.CComPtr< ICaptureGraphBuilder2 > m_pVideoCapGraphBuilder;
18.CComPtr< IBaseFilter > m_pFilterVideoCap;
19.CComPtr< IVideoWindow > m_pVideoWindow;
20.CComPtr< IMediaControl > m_pVideoMediaCtrl ;
21.CComPtr< IBaseFilter > m_pVideoRenderFilter;
22.
23.HRESULT CMyDialog::VideoGraphInitAndSend()
24.{
25. HRESULT hr;
26. hr =m_pVideoGraphBuilder.CoCreateInstance( CLSID_FilterGraph );
27. if(FAILED(hr))
28. return hr;
29. hr =m_pVideoCapGraphBuilder.CoCreateInstance( CLSID_CaptureGraphBuilder2);
30. if(FAILED (hr))
31. return hr;
32. m_pVideoCapGraphBuilder->SetFiltergraph(m_pVideoGraphBuilder);
33. m_pVideoGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pVideoMediaCtrl);
34. m_pVideoGraphBuilder->QueryInterface(IID_IVideoWindow,(void**)&m_pVideoWindow)
35.
36. FindDeviceFilter(&m_pFilterVideoCap,CLSID_VideoInputDeviceCategory);
37. if(m_pFilterVideoCap)
38. m_pVideoGraphBuilder->AddFilter( m_pFilterVideoCap,T2W("VideoCap") ) ;
39. //創建預覽的filter
40. hr = m_pRenderFilterVideo.CoCreateInstance(CLSID_VideoRenderer);
41. if(FAILED(hr))
42. return hr;
43. m_pVideoGraphBuilder->AddFilter( m_pRenderFilterVideo, L"VideoRenderFilter" );
44. Connect(m_pFilterVideoCap ,m_pRenderFilterVideo) ;
45. //設置預覽的窗口
46.
47. CRect rc ;
48. GetClientRect(m_hOwnerWnd, &rc );
49. int iWidth = rc.right - rc.left ;
50. int iHeight = rc.bottom - rc.top ;
51. int iLeft, iTop;
52. if((iHeight*1.0)/(iWidth*1.0) >= 0.75)
53. {
54. //按寬度算
55. int tmpiHeight = iWidth*3/4;
56. iTop = (iHeight - tmpiHeight)/2;
57. iHeight = tmpiHeight;
58. iLeft = 0;
59. }
60. else
61. {
62. //按高度算
63. int tmpiWidth = iHeight*4/3;
64. iLeft = (iWidth - tmpiWidth)/2;
65. iWidth = tmpiWidth;
66. iTop = 0;
67. }
68. m_pVideoWindow->put_Owner( (OAHWND) m_hPreviewWnd ) ;
69. m_pVideoWindow->put_Visible( OATRUE );
70. m_pVideoWindow->put_WindowStyle( WS_CHILD | WS_CLIPSIBLINGS ) ;
71.
72. //連接到網絡併發送
73. CComPtr< IRtpOption > pRenderOption;
74. CComPtr< IVideoOption > pVideoOption;
75.
76. tagVideoInfo vif(160,120,24);
77. int t=((int)(m_iFrameRate/5)*5)+5;
78. vif.nBitCount=24;
79. vif.nWidth=160;
80. vif.nHeight=120;
81.
82. hr = ::CoCreateInstance(CLSID_FH263Render, NULL, CLSCTX_INPROC, IID_IBaseFilter, (void **)&m_pVideoRtpRender);
83. if(FAILED(hr))
84. return hr;
85. m_pVideoRtpRender->QueryInterface(IID_IJRTPOption, (void**)&pRenderOption);
86. m_pVideoRtpRender->QueryInterface(IID_IVideoOption,(void**)&pVideoOption);
87. pVideoOption->SetProperty(&vif);
88. pVideoOption->SetSendFrameRate(m_iFrameRate,1);//1 不發送數據,0 實際發送數據
89. Connect(m_pFilterVideoCap ,m_pVideoRtpRender) ;
90. //連接對方
91. hr= pRenderOption->Connect(szClientA,iVideoPort,1024);
92. if(FAILED(hr))
93. return hr;
94. m_pVideoMediaCtrl->Run();
95.}
96.//視頻的接收
97.CComPtr< IGraphBuilder > m_pVideoGraphBuilder; //視頻圖形管理器
98.CComPtr< IBaseFilter > m_pFilterVideoCap;
99.CComPtr< IVideoWindow > m_pVideoWindow;
100.CComPtr< IMediaControl > m_pVideoMediaCtrl ;
101.CComPtr< IBaseFilter > m_pVideoRenderFilter;
102.HWND m_hRenderWnd ;
103.HRESULT VideoRecive()
104.{
105. HRESULT hr;
106. hr=CoCreateInstance(CLSID_FilterGraph,NULL,CLSCTX_INPROC,
107. IID_IFilterGraph,(void**)&m_pVideoGraphBuilder);
108.
109. m_pVideoGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pVideoMediaCtrl);
110. m_pVideoGraphBuilder->QueryInterface(IID_IVideoWindow,(void**)&m_pVideoWindow)
111.
112. hr = ::CoCreateInstance(CLSID_FH263Source, NULL, CLSCTX_INPROC, IID_IBaseFilter, (void **)&m_pVideoRtpSource);
113. if(FAILED(hr))
114. return hr;
115. m_pVideoGraphBuilder->AddFilter(m_pVideoRtpSource, L"My Custom Source");
116.
117. CComPtr< IRtpOption > m_pRtpOption;
118. CComPtr< IVideoOption > m_pVideoOption;
119. m_pVideoRtpSource->QueryInterface(IID_IJRTPOption, (void **)&m_pRtpOption);
120. m_pVideoRtpSource->QueryInterface(IID_IVideoOption, (void **)&m_pVideoOption);
121.
122. tagVideoInfo vif(160, 120 ,24);
123. m_pVideoOption->SetProperty(&vif);
124. hr= pRenderOption->Connect(szClientA,iVideoPort +1,1024);
125. if(FAILED(hr))
126. return hr;
127.
128. //創建預覽的filter
129. hr = m_pRenderFilterVideo.CoCreateInstance(CLSID_VideoRenderer);
130. if(FAILED(hr))
131. return hr;
132. m_pVideoGraphBuilder->AddFilter( m_pRenderFilterVideo, L"VideoRenderFilter" );
133. Connect(m_pVideoRtpSource ,m_pRenderFilterVideo) ;
134.
135. CRect rc ;
136. GetClientRect(m_hOwnerWnd, &rc );
137. int iWidth = rc.right - rc.left ;
138. int iHeight = rc.bottom - rc.top ;
139. int iLeft, iTop;
140. if((iHeight*1.0)/(iWidth*1.0) >= 0.75)
141. {
142. //按寬度算
143. int tmpiHeight = iWidth*3/4;
144. iTop = (iHeight - tmpiHeight)/2;
145. iHeight = tmpiHeight;
146. iLeft = 0;
147. }
148. else
149. {
150. //按高度算
151. int tmpiWidth = iHeight*4/3;
152. iLeft = (iWidth - tmpiWidth)/2;
153. iWidth = tmpiWidth;
154. iTop = 0;
155. }
156. m_pVideoWindow->put_Owner( (OAHWND) m_hRenderWnd ) ;
157. m_pVideoWindow->put_Visible( OATRUE );
158. m_pVideoWindow->put_WindowStyle( WS_CHILD | WS_CLIPSIBLINGS ) ;
159. m_pVideoMediaCtrl->Run();
160.
161. return S_OK;
162.}
163.//
164.HRESULT FindDeviceFilter(IBaseFilter ** ppSrcFilter,GUID deviceGUID)
165.{
166. HRESULT hr;
167. IBaseFilter * pSrc = NULL;
168. CComPtr <IMoniker> pMoniker =NULL;
169. ULONG cFetched;
170.
171. if (!ppSrcFilter)
172. return E_POINTER;
173.
174. // Create the system device enumerator
175. CComPtr <ICreateDevEnum> pDevEnum =NULL;
176.
177. hr = CoCreateInstance (CLSID_SystemDeviceEnum, NULL, CLSCTX_INPROC,
178. IID_ICreateDevEnum, (void **) &pDevEnum);
179. if (FAILED(hr))
180. return hr;
181.
182. // Create an enumerator for the video capture devices
183. CComPtr <IEnumMoniker> pClassEnum = NULL;
184.
185. hr = pDevEnum->CreateClassEnumerator (deviceGUID, &pClassEnum, 0);
186. if (FAILED(hr))
187. return hr;
188.
189. if (pClassEnum == NULL)
190. return E_FAIL;
191.
192. if (S_OK == (pClassEnum->Next (1, &pMoniker, &cFetched)))
193. {
194. hr = pMoniker->BindToObject(0,0,IID_IBaseFilter, (void**)&pSrc);
195. if (FAILED(hr))
196. return hr;
197. }
198. else
199. return E_FAIL;
200.
201. *ppSrcFilter = pSrc;
202.
203. return S_OK;
204.}
205.
206.//構建音頻Graph圖,併發送
207.CComPtr< IGraphBuilder > m_pAudioGraphBuilder; //音頻圖形管理器
208.CComPtr< ICaptureGraphBuilder2 > m_pCapAudioGraphBuilder;
209.CComPtr< IBaseFilter > m_pFilterAudioCap;
210.CComPtr< IMediaControl > m_pAudioMediaCtrl ;
211.
212.HRESULT AudioGraphInit()
213.{
214. HRESULT hr;
215. hr =m_pAudioGraphBuilder.CoCreateInstance( CLSID_FilterGraph );
216. if(FAILED(hr))
217. return hr;
218. hr =m_pCapAudioGraphBuilder.CoCreateInstance( CLSID_CaptureGraphBuilder2);
219. if(FAILED (hr))
220. return hr;
221. m_pAudioGraphBuilder->SetFiltergraph(m_pCapAudioGraphBuilder);
222. m_pAudioGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pAudioMediaCtrl);
223.
224. FindDeviceFilter(&m_pFilterVideoCap,CLSID_AudioInputDeviceCategory);
225. if(m_pFilterAudioCap)
226. m_pAudioGraphBuilder->AddFilter( m_pFilterAudioCap,T2W("AudioCap") ) ;
227.
228. //發送到網絡
229. hr =::CoCreateInstance(CLSID_FG729Render,NULL,CLSCTX_INPROC,
230. IID_IBaseFilter,(void**)&m_pFilterRtpSendAudio)
231. if(FAILED(hr))
232. return hr;
233. m_pAudioGraphBuilder->AddFilter(m_pAudioRtpRender, L"FilterRtpSendAudio");
234. Connect(m_pFilterAudioCap,m_pAudioRtpRender);
235.
236. CComPtr< IRtpOption > pOption ;
237. m_pAudioRtpRender->QueryInterface(IID_IJRTPOption,(void**)&pOption)
238. hr =pOption->Connect(szClientA,iAudioPort,1024);
239. if(FAILED(hr))
240. return hr;
241.
242. m_pAudioMediaCtrl->Run();
243. return S_OK;
244.}
245.//音頻的接收
246.CComPtr< IGraphBuilder > m_pAudioGraphBuilder; //音頻圖形管理器
247.CComPtr< ICaptureGraphBuilder2 > m_pCapAudioGraphBuilder;
248.CComPtr< IBaseFilter > m_pFilterAudioCap;
249.CComPtr< IMediaControl > m_pAudioMediaCtrl ;
250.CComPtr<IBaseFilter> m_pAudioRender;
251.HRESULT AudioRecive()
252.{
253. HRESULT hr;
254. hr =m_pAudioGraphBuilder.CoCreateInstance( CLSID_FilterGraph );
255. if(FAILED(hr))
256. return hr;
257. m_pAudioGraphBuilder->QueryInterface(IID_IMediaControl, (void **)&m_pAudioMediaCtrl);
258.
259. hr = m_pAudioRtpSource->CoCreateInstance(CLSID_FG729Source) ;
260. if(FAILED(hr))
261. return hr;
262. m_pAudioGraphBuilder->AddFilter(m_pAudioRtpSource,L"AudioRtp");
263. //創建聲卡Renderfilter
264. FindDeviceFilter(&m_pAudioRender,CLSID_AudioRendererCategory);
265. m_pAudioGraphBuilder->AddFilter(m_pAudioRender,L"AudioRender");
266. CComPtr< IRtpOption > pRtpOption ;
267. m_pAudioRtpSource->QueryInterface(IID_IJRTPOption,(void**)&pRtpOption)
268. hr= pRtpOption->Connect(szClientA,iAudioPort+2,1024);
269. if(FAILED (hr))
270. return hr;
271.
272. Connect(m_pAudioRtpSource,m_pAudioRender);
273.
274. m_pAudioMediaCtrl->Run();
275. return S_OK;
276.}