live555源代碼解讀

live555代碼解讀之一:RTSP 連接的建立過程
RTSPServer 類用於構建一個RTSP 服務器,該類同時在其內部定義了一個RTSPClientSession
類,用於處理單獨的客戶會話。
首先創建RTSP 服務器( 具體實現類是DynamicRTSPServer) , 在創建過程中, 先建立
Socket(ourSocket) 在TCP 的554 端口進行監聽, 然後把連接處理函數句柄
(RTSPServer::incomingConnectionHandler)和socket 句柄傳給任務調度器(taskScheduler)。
任務調度器把socket 句柄放入後面select 調用中用到的socket 句柄集(fReadSet)中,同時將
socket 句柄和incomingConnectionHandler 句柄關聯起來。接着,主程序開始進入任務調度器
的主循環(doEventLoop),在主循環中調用系統函數select 阻塞,等待網絡連接。
當RTSP 客戶端輸入(rtsp://192.168.1.109/1.mpg)連接服務器時,select 返回對應的scoket,進
而根據前面保存的對應關係, 可找到對應處理函數句柄, 這裏就是前面提到的
incomingConnectionHandler 了。在incomingConnectionHandler 中創建了RTSPClientSession,
開始對這個客戶端的會話進行處理。

live555代碼解讀之二:DESCRIBE 請求消息處理過程
RTSP 服務器收到客戶端的DESCRIBE 請求後,根據請求URL(rtsp://192.168.1.109/1.mpg),
找到對應的流媒體資源, 返回響應消息。live555中的ServerMediaSession 類用來處理會話
中描述,它包含多個(音頻或視頻)的子會話描述(ServerMediaSubsession)。
上節我們談到RTSP 服務器收到客戶端的連接請求,建立了RTSPClientSession 類,處理單
獨的客戶會話。在建立RTSPClientSession 的過程中,將新建立的socket 句柄(clientSocket)
和RTSP 請求處理函數句柄RTSPClientSession::incomingRequestHandler 傳給任務調度器,
由任務調度器對兩者進行一對一關聯。當客戶端發出RTSP 請求後,服務器主循環中的select
調用返回,根據socket 句柄找到對應的incomingRequestHandler,開始消息處理。先進行消
息的解析,如果發現請求是DESCRIBE 則進入handleCmd_DESCRIBE 函數。根據客戶端請
求URL 的後綴(例如是1.mpg), 調用成員函數DynamicRTSPServer::lookupServerMediaSession
查找對應的流媒體信息ServerMediaSession。如果ServerMediaSession 不存在,但是本地存
在1.mpg 文件,則創建一個新的ServerMediaSession。在創建ServerMediaSession 過程中,
根據文件後綴.mpg,創建媒體MPEG-1or2的解複用器(MPEG1or2FileServerDemux)。再由
MPEG1or2FileServerDemux 創建一個子會話描述
MPEG1or2DemuxedServerMediaSubsession。最後由ServerMediaSession 完成組裝響應消息中
的SDP 信息(SDP 組裝過程見下面的描述),然後將響應消息發給客戶端,完成一次消息
交互。
SDP 消息組裝過程:
ServerMediaSession 負責產生會話公共描述信息, 子會話描述由
MPEG1or2DemuxedServerMediaSubsession 產生。MPEG1or2DemuxedServerMediaSubsession
在其父類成員函數OnDemandServerMediaSubsession::sdpLines()中生成會話描述信息。在
sdpLines() 實現裏面, 創建一個虛構(dummy) 的FramedSource( 具體實現類爲
MPEG1or2AudioStreamFramer 和MPEG1or2VideoStreamFramer)和RTPSink(具體實現類爲
MPEG1or2AudioRTPSink 和MPEG1or2VideoRTPSink ) , 最後調用
setSDPLinesFromRTPSink(...)成員函數生成子會話描述。
以上涉及到的類以及繼承關係:
Medium <- ServerMediaSession
Medium <- ServerMediaSubsession <- OnDemandServerMediaSubsession <-
MPEG1or2DemuxedServerMediaSubsession
Medium <- MediaSource <- FramedSouse <- FramedFileSource <- ByteStreamFileSource
Medium <- MediaSource <- FramedSouse <- MPEG1or2DemuxedElementaryStream
Medium <- MPEG1or2FileServerDemux
Medium <- MPEG1or2Demux
Medium <- MediaSource <- FramedSouse <- MPEG1or2DemuxedElementaryStream
Medium <- MediaSource <- FramedSouse <- FramedFilter <- MPEGVideoStreamFramer <-
MPEG1or2VideoStreamFramer
Medium <- MediaSink <- RTPSink <- MultiFramedRTPSink <- VideoRTPSink <-
MPEG1or2VideoRTPSink
live555代碼解讀之三:SETUP 和PLAY 請求消息處理過程
前面已經提到RTSPClientSession 類, 用於處理單獨的客戶會話。其類成員函數
handleCmd_SETUP()處理客戶端的SETUP 請求。調用parseTransportHeader()對SETUP 請
求的傳輸頭解析,調用子會話(這裏具體實現類爲OnDemandServerMediaSubsession)的
getStreamParameters()函數獲取流媒體發送傳輸參數。將這些參數組裝成響應消息,返回給
客戶端。
獲取發送傳輸參數的過程: 調用子會話( 具體實現類
MPEG1or2DemuxedServerMediaSubsession) 的createNewStreamSource(...) 創建
MPEG1or2VideoStreamFramer,選擇發送傳輸參數,並調用子會話的createNewRTPSink(...)
創建MPEG1or2VideoRTPSink。同時將這些信息保存在StreamState 類對象中,用於記錄流
的狀態。
客戶端發送兩個SETUP 請求,分別用於建立音頻和視頻的RTP 接收。
PLAY 請求消息處理過程
RTSPClientSession 類成員函數handleCmd_PLAY()處理客戶端的播放請求。首先調用子會話
的startStream(), 內部調用MediaSink::startPlaying(...) , 然後是
MultiFramedRTPSink::continuePlaying() , 接着調用
MultiFramedRTPSink::buildAndSendPacket(...)。buildAndSendPacke 內部先設置RTP 包頭,內
部再調用MultiFramedRTPSink::packFrame()填充編碼幀數據。
packFrame 內部通過FramedSource::getNextFrame(), 接着
MPEGVideoStreamFramer::doGetNextFrame() , 再接着經過
MPEGVideoStreamFramer::continueReadProcessing() , FramedSource::afterGetting(...),
MultiFramedRTPSink::afterGettingFrame(...), MultiFramedRTPSink::afterGettingFrame1(...) 等
一系列繁瑣調用,最後到了MultiFramedRTPSink::sendPacketIfNecessary(), 這裏才真正發送
RTP 數據包。然後是計算下一個數據包發送時間,把MultiFramedRTPSink::sendNext(...)函數
句柄傳給任務調度器, 作爲一個延時事件調度。在主循環中, 當
MultiFramedRTPSink::sendNext() 被調度時, 又開始調用
MultiFramedRTPSink::buildAndSendPacket(...)開始新的發送數據過程,這樣客戶端可以源源
不斷的收到服務器傳來的RTP 包了。
發送RTP 數據包的間隔計算方法:
Update the time at which the next packet should be sent, based on the duration of the frame that
we just packed into it.
涉及到一些類有:
MPEGVideoStreamFramer: A filter that breaks up an MPEG video elementary stream into headers
and frames
MPEG1or2VideoStreamFramer: A filter that breaks up an MPEG 1 or 2 video elementary stream
into frames for: Video_Sequence_Header, GOP_Header, Picture_Header
MPEG1or2DemuxedElementaryStream: A MPEG 1 or 2 Elementary Stream, demultiplexed from
a Program Stream
MPEG1or2Demux: Demultiplexer for a MPEG 1 or 2 Program Stream
ByteStreamFileSource: A file source that is a plain byte stream (rather than frames)
MPEGProgramStreamParser: Class for parsing MPEG program stream
StreamParser: Abstract class for parsing a byte stream
StreamState:A class that represents the state of an ongoing stream

 

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章