CINELOVE.NET
   휴대폰토론 | 휴대폰상품기획실 | 휴대폰자료실 | 영화토론 | 영화작품실 | 영화자료실 | CONTACT
" Streaming " <-- 각 파트별 개요


 PROFILE
 CREATIVE
 CELLULAR


 CDMA
 GSM
 IMT2000
 Bluetooth
 IPv6
 VPN/PKI
 GPS
 TFT-LCD
 Camera
 OLED
 Antenna
 Battery
 Plastic
 Nano
 Compression
 Image Process
 Media Format
 Streaming
 LBS
 Virtual Machine
 Voice Recognition

 전화문의

HP : 011)9491-7906

Tel :   02)908-0540

  담당자 : 강완신

 

 

모바일 스트리밍 - 1 (현재와 동향)

 

현재 급속도로 발전하고 있는 모바일 네트워크 기술과 포스트 PC시대에 부응하는 고성능 휴대형 단말기들의 출현으로 과거 PC상에서나 가능했던 일들이 이제는 손바닥 위에서 구현되고 있으며 멀티미디어의 구현도 충분히 가능해지고 있는 현실이다.

이러한 이유로 정보통신의 중심 축이 모바일 환경으로 옮겨가고 있으며 많은 개발업체의 참여와 마이크로소프트, 인텔, 썬 등의 적극적인 지원정책으로 그 무게가 점점 더해지고 있다.

M동영상, 킬러 애플리케이션 부각

얼마 전까지 연구단계에 머물렀던 모바일 스트리밍 기술의 발전으로 PDA나 휴대전화도 멀티미디어의 구현이 가능한 단계에 이르렀다.

이동통신과 인터넷의 결합으로 시작된 무선인터넷이 이제는 문자위주의 컨텐츠 및 SMS(Short Messaging Service)를 넘어 정지영상과 16폴리를 지원하는 단계에 이르렀으며, 정지영상과 음악을 이용한 MMS(Multimedia Messaging Service)를 각 이동통신업체들이 서비스를 시작한다고 한다. 그리고 그 단계를 넘어 이제는 모바일 동영상 서비스가 새로운 차원의 모바일 킬러 애플리케이션으로 부각되고 있다.

SMS 및 WAP을 이용한 서비스가 1세대라면 MMS가 2세대 모바일 스트리밍을 이용한 동영상서비스 2.5세대라 할 수 있다. 하지만 완벽한 3세대 무선인터넷서비스는 동영상 및 정지영상, 음성, 음악 등이 동시에 구현된 리치미디어(richmedia) 서비스라 할 수 있으며 현재 ITU, 3GPP, 3GPP2 등 많은 국제규격제정단체에서 규격화를 위해 노력하고 있고 조만간에 이러한 형태의 리치미디어 스트리밍 서비스가 휴대폰이나 PDA등에서 구현가능 하리라 예상된다.

이제 멀티미디어 기술은 PC만의 전유물이 아닌 어떤 환경, 어떤 기기에서도 가능하게 됐으며 그 핵심은 정밀한 스트리밍 기술과 고속의 무선네트워킹 환경이라고 할 수 있다. 하지만 현재 서비스되고있는 cdma2000-1x망에서 이론적으로 144 Kbps의 속도가 나온다고는 하지만 실제 서비스 속도는 제 속도에 못 미치고 있고 패킷요금제에 따른 과금 정책도 대용량일 수밖에 없는 동영상이나 음악파일 전송에 큰 부담이 되는 현실이다.

이러한 이유로 휴대폰으로 영화를 감상하는 용도 보다 동영상 및 멀티미디어 메일을 주고받거나 짧은 용량의 동영상정보(교통, 뮤직비디오, 영화 예고편) 등으로 그 활용범위가 좁혀지고 있으나 과금정책의 변화에 따라서 그 용도가 넓어 질 수 있을 것으로 예상된다.

하드웨어·소프트웨어 방식 경합

현재 모바일 스트리밍의 기술적 경향은 PDA에서는 S/W를 통한 MPEG-4 디코딩 방식을 택하고 있으며 휴대전화에서는 전용 MPEG-4 디코딩 칩을 이용한 H/W 솔루션과 웨이블렛을 이용한 방식이 시범 서비스 중이다.

H/W 디코딩 방식은 빠르고 안정적이고 화질은 상대적으로 우수하나 전화기내에 전용칩을 부착해 생산하기 때문에 단말기 가격상승이 부담이 되고 웨이블렛 방식은 별도의 H/W 추가 없이 펌웨어(firm-ware)에 웨이블렛 디코딩 S/W 추가만으로도 구현되기 때문에 단말기 가격상승요인은 적으나 화질과 속도가 느린 것이 단점이고 H/W적인 제약 때문에 MPEG-4 재생은 불가능하다.

위에 언급한 두 가지 방식 모두 서로의 장단점과 차이점 때문에 현재 모바일 스트리밍 시장은 국내외 업체들이 뒤엉켜 시장 선점에 각축을 벌이고 있다.

대표적으로 엠블레이즈와 퀄컴, 도시바 등이 전용 칩을 이용한 H/W 솔루션으로 경쟁하고 있으며 패킷비디오, 리얼네트웍스는 PDA와 스마트폰용 S/W 솔루션으로 유럽 시장에 진입했고 한국의 씬멀티미디어가 웨이블렛 방식으로 SK텔레콤에 서비스 예정이며, 그외 많은 국내외업체가 자체솔루션을 개발중이다.

휴대폰용 모바일 스트리밍 기술 동향

이스라엘의 엠블레이즈는 이 분야에 대표적인 업체다. 현재 삼성전자의 VOD폰에 엠블레이즈 A2+칩이 내장돼있고 휴대폰 및 PDA, 데스크탑 PC용 디코딩 H/W, S/W 솔루션을 모두 보유하고 있다.

또 실시간 MPEG-4 인코딩 서버 및 RTP/RTSP 기반의 서버 솔루션까지 보유하고 있으며 32kbps의 낮은 대역폭에서 실시간 동영상구현이 가능한 시스템을 개발판매하고 있고 업계 최초로 상용화된 휴대폰용 실시간 H/W 동영상 인코딩/디코딩 시스템을 구현했다.

현재 실시간 디코딩 기능을 가진 A2+가 양산중이며 실시간 MPEG-4 인코딩/디코딩이 가능한 A3칩이 개발을 마치고 양산단계에 들어가 있으며, 내년에는 실시간 동영상 통화가 가능한 휴대전화의 등장이 예상된다.

한편 미국의 퀄컴은 휴대전화기내에 MSP1000 칩을 부착해 QTV 라고 불리는 기술을 이용해 MPEG-4 디코딩을 하고 있으며 퀄컴의 전략기술인 브루와 연동해 본격적인 모바일 멀티미디어 시대를 준비하고 있다. 한편 도시바 등 일본업체들도 MPEG-4 코덱 칩 개발에 박차를 가하고있으나 아직까지 엔지니어링 샘플만 일부 업체들에게 배포되고 있고 자세한 스펙이 공개하지 않고 있다.

먼저 S/W 디코딩솔루션을 소개하면 H/W 디코딩솔루션은 그 기술의 난이도와 ASIC을 이용한 칩 설계의 부담 때문에 전 세계에서 몇 군데 업체들만 손을 대고 있지만 이와 달리 S/W 디코딩솔루션의 경우 비교적 쉽게 구현되는 부분이기에 너무나도 많은 업체가 경쟁하고 있고 각 업체별로 별도의 표준을 만들어 진행하므로 각 솔루션들이 서로 호환이 잘 되지 않는 문제점도 가지고 있다.

미국의 패킷비디오도 처음엔 휴대폰용 MPEG-4 디코딩 솔루션을 개발하려했으나 지금은 iPAQ 등의 고성능 포켓PC를 대상으로 하는 리치미디어 플레이어 및 서버로 그 무게중심을 옮겨가는 중이다. 이외에도 상당수의 개발업체들이 포켓PC용 동영상 애플리케이션을 만들고 있으며 그 경쟁은 점점 더 치열해지고 있다.

현재 휴대전화용 S/W 디코딩 솔루션은 웨이블렛을 이용한 방법과 자바 VM 상에서 구현하는 방법으로 나눌 수 있다. 두 방식 모두 H/W의 한계 때문에 실시간 스트리밍 방식 보다는 다운로드후 플레이하는 방식으로 구현되고 있다.

미국에서는 넥스텔의 i85s 휴대전화내의 VM을 이용해 동영상메일을 다운로딩해 보는 방식으로 가고있으나 너무나 작은 내장메모리에 96x64의 작은 흑백 LCD 한계를 못 벗어나고 있다.



그리고 새롭게 뛰어든 리얼네트웍스는 리얼플레이어를 심비안의 에포크(epoc) OS에 포팅했으며 그 최초의 제품을 노키아의 9290 커뮤니케이터(communicator)에 장착했고, 역시 인터넷을 통해 다운로딩한 파일을 재생하는 방식이다.

리얼네트웍스의 리얼시스템 iQ(RealsystemiQ)라는 신개념의 전략을 통해 모든 미디어 파일을 PC 뿐만 아니라 TV, 인터넷 어플라이언스(Internet Appliance), 모바일 기기 및 휴대폰까지 전송하는 거대한 미디어 딜리버리 시스템(Media Delivery Sys-tem) 솔루션을 가지고 스트리밍 시장에 진입한 상태여서 그 귀추가 주목된다.

현재 리얼네트웍스는 심비안과의 제휴를 통해 그 영역을 확대해나가고 있다. 그리고 TI와 제휴를 통해 현재 OMAP SoC(System on Chip)에 리얼플레이어를 포팅 할 예정이며 향후 전개될 3G 모바일 멀티미디어 서비스 시장 선점을 위해 총력을 기울이고 있다.

국내에서는 씬멀티미디어가 SK텔레콤을 통해 웨이블렛 동영상 서비스를 선보일 예정이다. 동영상 메일을 TCM2 라는 웨이블렛 파일형식으로 미디어 변환 후 휴대전화에 다운로딩해 플레이하는 방식으로 구성돼있다.

먼저 avi나 mpeg 등으로 구성된 동영상 파일을 TM 크리에이터(creator)를 통해 자체규격인 TCM2 웨이블렛 파일로 변환한 후 TM 서버를 통해 가입자의 휴대전화에 전송하는 방식이며 각 단말기에서는 TM 플레이어를 통해 TCM2 파일을 재생한다.

현재 오디오 부분은 EVRC, QCELP를 지원하고 H/W 제약 때문에 AAC나 mp3 등의 오디오 재생은 불가능하다.

네트워크 한계는 오디오 재생에 5kbps 정도 대역폭이 요구되며 동영상 재생에 프레임당 8∼12kbps 정도다.

PDA용 모바일 스트리밍 기술의 현황

휴대전화용 솔루션과 달리 PDA용 솔루션들은 고성능의 PDA의 보급으로 인해 다양한 종류의 미디어 플레이어가 보급되어 있으며 동영상 규격은 MPEG-4로 결정되는 추세로 가고 있다.

팜, 윈도 CE, 에포크 등의 거의 모든 PDA OS용 미디어 플레이어가 있으며 무선 네트워크를 통한 데이터의 실시간 스트리밍이 가능하고 스트리밍 시스템 또한 복잡한 형태의 리치미디어 전송에 중점을 두고 있다.

하지만 세계 PDA시장의 위축과 더불어 휴대전화의 비약적인 발전이 전화기와 PDA 사이의 구분을 모호하게 만들고 3G 전화기의 도입이 예상되는 2003년 이후에는 PDA 기능의 거의 대부분을 휴대전화가 대신하게 되고 노키아의 커뮤니케이터와 같은 형태의 스마트폰이 모바일기기가 주종을 이룰 전망으로 스트리밍 기술 또한 그 초점이 휴대전화에 맞춰질 가능성이 크다.

출처:데이터넷

모바일 스트리밍 - 2 (관련기술 현황)

[2002-06-12]

MPEG
1988년 미국 AT&T, 영국 BT, 일본 NTT 등을 주축으로 동영상을 부호화하는 방법을 이용해 압축, 코드 표현을 통해 정보 전송이 이루어지는 방법과 연구를 목적으로 하는 동화상 전문가 그룹인 MPEG (Motion Picture Experts Group)가 탄생했다.

MPEG은 그 표준에 따른 다양한 종류로 분류되고 있으며. 현재 모바일 인터넷 동영상 압축 기술 개발의 표준인 MPEG-4가 활발히 연구되고 있다.

■ MPEG-1 : 1991년 ISO(국제표준화기구) 11172로 규격화된 영상 압축 기술이다. CD-ROM과 같은 디지털 저장 매체에 VHS 테이프 수준의 동영상과 음향을 최대 1.5Mbps로 압축·저장할 수 있다. 이 규격으로 상품화된 것이 비디오 CD와 CD-I/FMV 이다.

■ MPEG-2 : 1994년 ISO 13818로 규격화된 영상 압축 기술이다. 디지털 TV, 대화형 TV, DVD 등은 높은 화질과 음질을 필요로 하는 분야로 높은 전송속도 처리가 필요한데, 영상 및 음향을 압축하기 위해 MPEG-1을 개선한 것이다.

현재 DVD 등의 컴퓨터 멀티미디어 서비스, 직접 위성방송·유선방송·고화질 TV 등의 방송 서비스, 영화나 광고편집 등에서 널리 쓰인다.

■ MPEG-4 : 멀티미디어 통신을 전제로 만들고 있는 영상 압축 기술로 1998년 완성되었다. 낮은 전송률로 동화상을 보내고자 개발된 데이터 압축과 복원 기술에 대한 새로운 표준을 말한다. 매초 64kbps, 19.2kbps의 저속 전송으로 동화상을 구현할 수 있다.

인터넷 유선망과 이동통신망 등 무선망에서 멀티미디어 통신·화상회의 시스템·컴퓨터·방송·영화·교육·오락·원격감시 등의 분야에서 널리 쓰인다.

MPEG-4

디지털 동화상의 부호화 기술, 국제 표준은 MPEG, MPEG2-의 완성으로 부호화 효율과 재현 품질 등의 기술적인 측면과 MPEG-4의 기능적인 면, 즉 오브젝트 부호화 방식으로 발전해 왔다. MPEG-4는 무선통신에서 사용되는 낮은 대역폭과 저속의 통신망에서 멀티미디어 서비스를 일정한 수준의 퀄리티를 제공하기 위해 미디어 오브젝트의 특성을 이용해 2D, 3D, 그래픽, 애니메이션 자연음성 및 합성음성 등을 클라이언트에게 효율적으로 프리젠테이션 하기 위한 방법이다.

MPEG-4 응용범위는 멀티미디어 서비스 중 디지털 TV, 인터렉티브 그래픽 어플리케이션, 인터렉티브 멀티미디어 및 인터넷 방송용 컨텐츠를 이와 같이 유선을 통해 제공되는 문자나 그림은 물론 컴퓨터 그래픽 영상까지 일반 동영상과 같이 인터넷 방송용 컨텐츠로 활용할 수 있고 사용자가 온라인 상에서 시청중인 콘텐츠를 원하는 대로 조작이 가능하다.

<그림1 : PDF 서비스 이용>과 같이 MPEG-4는 미디어 오브젝트를 표현 코드화해 각각의 개체로 만들어 동영상안에 포함시키는 구조로 되어있고 MPEG-4 오디오비주얼 씬(scene)은 여러 개의 오브젝트들이 계층적으로 구성되며 정지 이미지, 비디오, 오디오, 텍스트와 그래픽, 합성음(synthetic sound) 등으로 표현된다. MPEG-4의 구조는 크게 DMIF, 시스템, 오디오, 비쥬얼의 4개 파트로 구성되어진다.

MPEG-4 버전 1

① DMIF(Delivery Multimedia Inte-gration Framework) 일반적인 전송 기술에서 멀티미디어 스트리밍 관리를 위한 세션 프로토콜(Session Protocol)로 FTP와 유사하고 상이점은 FTP가 데이터를 보내는 반면에, DMIF는 데이터를 가서 얻을 수 있는 포인터(pointers)를 보내는 데 있다.

또한 상대(remote interactive peer, broadcast, 지역저장매체)에 상관 없이 투명한 DMIF-애플리케이션 인터페이스를 제공하고 플렉스먹스(FlexMux) 채널 수립을 조절하며 인터렉티브 피어스간(IP, ATM, mobile, PSTN) 동일한 네트워크를 사용한다

② 시스템 : MPEG-4는 오디오 비주얼 정보를 위해 발전된 압축 알고리즘의 도구함을 정의하고 코딩된 데이터 스트림(Elementary streams)은 각기 따로 전송되거나 저장될 수 있다.

이러한 스트림은 수신단에서의 멀티미디어 실물 생성에 적합하도록 구성된다.

- BIFS(Binary Format for Scenes) : Scene을 구성하는 오디오 비주얼 물의 공간-시간적 배치를 묘사하며 시청자는 Scene에서 사물을 재배치하거나, 3D 버츄얼 환경에서 관측 지점을 변경함으로써 사물과 상호작용이 가능하게 한다.

- ODs(Object Descriptors) : 각 객체에 적절한 데이터 스트림간의 관계를 정의하며 데이터 스트림에 액세스 하기 위한 URL 정보도 제공된다.

③ 오디오 스피치 시그널(Audio Speech signals)의 스피치 코딩은 2~ 24kbit/s, 합성 스피치는 TTS 코더는 200bit/s ~1.2kbit/s 이다. 일반적인 오디오 시그널은 매우 낮은 비트율부터 높은 음질까지며 이외에 오디오 합성, 속도 변환기능, 피치 변환 기능, 비트율 확장, 대역폭 확장 등을 지원한다.

④ 비주얼 : MPEG-4는 자연 이미지와 비디오를 컴퓨터 생성 합성(synthetic) 이미지와 함께 하이브리드 코딩한다. 지원 포맷은 5kbit/s~10Mbit/s이고 프로그레시브, 인터레스트(interlaced) 비디오 포맷 모두 사용하며 b-QCIF에서 HDTV 이상의 화질을 지원한다.

MPEG-4 버전 2

1999년 12월에 정립된 버전 2는 버전 1을 포함하면서 확장시킨 개념이다.

① 시스템

- Extended BIFS : 상호작용이 가능한 버츄얼씬(Virtual Scene)에서 향상된 음질환경을 모델링하고 디코더(Decoder)에 있는 디폴트 바디(Default body)나 다운로드 가능한 바디 모델(Body model) 의 바디 애니메이션이나 애니메이션 파라미터(Animation Parameters)를 비트스트림(Bitstream)에 보냄으로써 수행한다.

- JAVA(MPEG-J) 지원을 포함한다. MPEG-J는 MPEG-4 미디어 플레이어가 자바 코드와 상호작용을 하도록 API를 확정하는 시스템이다. (Version 1: 파라메틱 시스템)

② 비쥬얼 내추럴 비디오(Visual Natural Video)의 코딩 효율성, 화질상태, 에러 보정 등이 더욱 향상되었다.

③ 오디오 에러 보정을 향상시키고 음질은 높였으며 지연성은 최소화 하였다.

④ DMIF
무선 네트워크를 지원(H.245v6)하고 QoS 모니터링, 확인응답에 의한 사용자 제어 MPEG-4 싱크레이어(Sync Layer) 정보 관리 기능이 있다.

MPEG-4는 환경 적응형의 새로운 부호화의 가능성과 디지털 네트워크, 차세대 인터넷과 더불어 유선, 무선의 이음 없는 연대환경이나 ASP와 같은 새로운 환경에서 영상을 이용한 많은 새로운 서비스를 기대할 수 있다.

통신 프로토콜

문자 정보뿐만 아니라 음성과 동영상을 실시간으로 전달하고자 하는 노력이 진행되었다. 하지만 전화선을 이용한 모뎀의 대역폭은 제한되어 있기 때문에 음성과 동영상을 높은 품질로 전송하는 데에는 많은 어려움이 따른다. 또한, 실시간 전송을 위해서는 미디어의 전송 중에도 내용을 볼 수 있는 방법이 지원돼야 한다.

이와 같은 문제를 해결하기 위한 많은 연구가 진행됐는데, 기존의 동영상 압축 알고리즘을 좁은 대역폭에 적합하도록 발전시킨 별도의 표준화 안이 마련됐고, 인터넷과 같은 매체 공유 네트워크에서 실시간성을 보장하기 위한 새로운 프로토콜이 개발되었다. 즉, 컴퓨터 네트워크를 통해 동작하는 멀티미디어 응용 프로그램은 기존의 네트워크 환경을 이용하고 있다.

그러나, 기존의 네트워크 환경은 데이터를 오류없이 전송할 목적으로 설계된 것이므로, 파일의 전송이나 전자 우편의 전송과 같은 경우에는 안정적으로 동작하지만 대규모 멀티미디어 데이터를 전송하는 과정에서는 전송 지연이라는 문제가 발생하게 된다.

그러나, 음성이나 영상 위주의 멀티미디어 데이터는 파일의 전송과는 달리 신뢰성보다 데이터의 실시간성이 보장되어야 한다.

왜냐하면 전송 중에 패킷이 손실되더라도 그 손실이 일정량 이하면 소프트웨어적으로 보상이 가능하며, 보상이 안되더라도 전체적인 영상을 보는데 큰 지장이 없기 때문이다. 이러한 필요성 때문에 기존의 TCP/IP 프로토콜과는 별도의 RTP (Real-time Transport Protocol), RSVP (ReSerVation Protocol) 스트리밍 프로토콜이 등장하게 되었다.

스트리밍 프로토콜은 핸드쉐이킹 기반의 전송 방식과 같이 재전송을 통한 오류 복구 능력은 없지만, 실시간 전송이 가능하기 때문에 오류가 발생하더라도 약간의 화질 열화만 나타나고 멀티미디어 데이터를 끊어짐 없이 계속적으로 전송할 수 있다.

RTP는 기존의 IP를 이용하기 위해 접속 기반이 아닌 UDP를 주로 사용한다. 특히, RTP는 서비스 품질 정보를 교환하고 네트워크의 상태를 파악하기 위해 RTCP (Real Time Control Protocol)을 사용하기 때문에 현재의 네트워크 상태에 적합한 데이터 품질로 서비스를 할 수 있다.

현재 RTP는 IETF(Internet Engi-neering Task Force)의 RFC1889로 표준화된 상태이다 또한 RTP는 실시간 스트리밍을 위해 사용된다. 비디오 패킷들은 실시간으로 전송되어서, 1분짜리 비디오는 1분 안에 실시간 전송된다. 패킷들에 타임-스탬프(time-stamp)가 찍히므로, 패킷들은 시간에 동기화되어 재생될 수 있다. 패킷들이 실시간으로 전송되기 때문에, RTP 스트리밍은 저장된 컨텐츠(stored contents) 뿐아니라 라이브 컨텐츠(live contents)도 지원한다.

MPEG4 스트리밍을 위한 프로토콜은 RTP를 사용하며 프로토콜 제어를 위해 RTCP를 사용한다 데이터 패킷과 동일한 분배 메커니즘을 사용해 제어 패킷을 주기적으로 전송함으로써 RTP를 이용하는 동영상 컨텐츠에서 QoS(Quality Of Ser-vice)를 지원한다.

RTP는 통신하는데 일정 시간내에 전송되어야 할 필요성이 있는 실시간 멀티미디어 정보를 효율적으로 보내기 위한 전송프로토콜이지만 소프트웨어적으로 구현되는 응용전송 프로토콜이다.

인코드된 멀티미디어 정보는 전송되기 전에 이 RTP프로토콜에 맞게 변경된다. RTP를 이용하는데 있어 다양한 제어기능을 제공하기 위하여 별도의 프로토콜이 있는데, 그것이 바로 RTCP 이다. RTP가 데이터 전송에만 관계하는데 비해, RTCP는 데이터 전송을 모니터링하고 세션에 관련된 정보를 주고 받는데 이용된다.

MPEG-4 코덱 하드웨어

위에서 MPEG-4 와 구동시키기 위한 프로토콜에 대해 간략히 살펴보았다 다음은 모바일 스트리밍의 핵심인 MPEG-4 코덱칩과 시스템구성에 대해서 살펴보도록 하자.

현재의 2.5G시스템에서 동영상을 구현하는 방법은 지난호에서 살펴본 바와 같이 S/W에 의한 방법과 H/W에 의한 방법으로 나누어지며 동영상 표준규격인 MPEG-4의 구현은 거의 MPEG-4 코덱칩에 의한 방법밖에는 없다.

특히 MPEG-4의 실시간 인코딩/디코딩은 전용 칩이 없으면 불가능하다. 현재까지 나온 칩은 퀄컴의 msp1000과 엠블레이즈의 A2+, A3 칩이 유일하다. 특히 A3 칩은 MPEG-4의 실시간 인코딩/디코딩이 가능하여 동영상 회의 시스템을 휴대전화에서 가능하게 한다
차세대 멀티미디어 휴대전화는 위그림과 같은 구조로 되어있으며 지금보다 많은 부분의 H/W가 충족되어야 하며 내장 메모리 및 컬러 LCD의 속도 및 그래픽 버퍼 메모리 등이 필수 요건이다.

또한 복잡해져 가는 H/W의 단순화 작업이 필요하며 이를 위해 기존의 전화기용 칩 이외에 멀티미디어 처리용 전용 칩을 부착하는 형태로 진행되고 있으며 이를 위한 솔루션이 퀄컴과 엠블레이즈를 통해 나오고 있다. 두회사의 칩 모두 ARM 계열의 CPU로 구성되어졌고 그안에 동영상처리부분을 H/W적으로 구현시켰다.



차세대 멀티미디어 휴대전화는 위그림과 같은 구조로 되어있으며 지금보다 많은 부분의 H/W가 충족되어야 하며 내장 메모리 및 컬러 LCD의 속도 및 그래픽 버퍼 메모리 등이 필수 요건이다.

또한 복잡해져 가는 H/W의 단순화 작업이 필요하며 이를 위해 기존의 전화기용 칩 이외에 멀티미디어 처리용 전용 칩을 부착하는 형태로 진행되고 있으며 이를 위한 솔루션이 퀄컴과 엠블레이즈를 통해 나오고 있다. 두회사의 칩 모두 ARM 계열의 CPU로 구성되어졌고 그안에 동영상처리부분을 H/W적으로 구현시켰다.

<그림 7>처럼 칩 내부에서 외부 카메라를 통해 들어온 데이터를 MPEG-4로 변환해 다른 단말기나 미디어 서버로 전송이 가능하며 내장 메모리로의 데이터 저장도 가능하다.



또한 모바일 멀티미디어를 구현하기 위한 H/W 사양을 볼 때 최소 200M이상의 RISC CPU에 상당한 크기의 내장 메모리가 필요하다. 이러한 이유로 아직까지는 고가의 H/W 비용이 부담되지만 단말기 보급이 확대되고 대량생산을 통해 가격이 하락하리라 예상된다.

<그림 5, 6, 7 : PDF 서비스 이용>은 퀄컴의 msp1000과 엠블레이즈의 a2+와 a3을 이용한 단말기 시스템 구성이다. 둘다 퀄컴의 MSM 베이스밴드칩과 같이 사용된다. 또한 위에서 열거한 MPEG-4와 RTP 그리고 코덱칩을 이용해 모바일 스트리밍 시스템이 구성되어지며 거기에 필요한 제반 요소들이 유기적으로 연결되어 전체적인 시스템이 구성되어진다.

현재는 위에서 열거한 MPEG-4의 모든 기능을 사용하지 않고 있으며 동영상 처리부분 중에서 MPEG-4 심플 프로파일(simple profile)만 이용가능하고 표준화 작업이 완료되는 데로 전 기능의 사용이 가능하리라고 본다.

그리고 위와 같은 방법으로 외부의 동영상 데이터를 RTP 프로토콜을 통해 단말기 내부에서 처리해 LCD를 통해 보여주는 구조로 되어있다. 또한 카메라를 통해 얻어진 데이터를 다른 단말기나 서버로 전송한다.

전반적인 칩의 동작과 서버에서의 컨텐츠 퍼블리싱은 다음과 같이 구성되어진다.

현재까지 진행되고 있는 모바일 스트리밍의 표준화 규격은 다음과 같이 진행되고 있으며 앞으로 해결해야할 선결 과제들이 많이 남아 있는 상태이다.

하지만 지금까지 진행되어온 작업들이 거의 표준으로 자리매김 할 것이며 향후 전개될 3G 서비스 역시 위에서 열거한 방법을 통해 구현될 것이다.

지금까지 모바일 스트리밍의 관련기술을 살펴보았고, 다음호에는 앞으로 전개될 모바일 스트리밍 환경에 대해 소개할 예정이다.

출처:데이터넷

모바일 스트리밍 - 3 (모바일 스트리밍의 미래)

[2002-06-12]

지금까지와는 근본적으로 다른 새로운 형태의 이동통신서비스가 태동하고 있다. 그것은 바로 지금까지 살펴본 기술적 표준을 바탕으로 휴대전화에서 동영상 구현이 가능하게 하는 모바일 스트리밍 서비스이고 이것은 현재의 2.5G 휴대전화에서도 가능하다.

한편 하드웨어의 비약적인 발전과 망 전송속도의 발전으로 이른바 꿈의 이동통신으로 불리는 IMT-2000, 즉 3세대 이동전화서비스에 대한 기술개발이 완료된 상태이고 이웃 일본에서는 NTT 도코모가 FOMA라고 불리는 고속이동전화서비스를 시범 운영하고 있다.

현재 3G에 대한 표준 정립 및 기술개발은 거의 끝난 상태이지만 아직도 많은 난관에 봉착하고 있으며, 망운영에 대한 성능테스트를 통해 문제점을 찾고 있다. 2003년 서비스를 목표로 각 회사와 국가에서 노력중이지만 현재로서는 그 시기가 불투명하다. 하지만 그리 멀지 않은 시기에 3G 서비스가 도입될 예정이다.

3G 표준화 작업 한창

IMT-2000은 1989년 중반부터 ITU-R에서 FPLMTS(Future Public Land Mobile Telecommunication Systems)로써 검토하였으며, 1997년 2월 ICG-FPL-MTS(Intersector Coordination Group - FPLMTS) 회의에서 IMT-2000을 공식적인 명칭으로 합의했다.

이후 ITU-T, ITU-R에서는 국가간의 상호 협력하에 IMT-2000 단일 표준화를 추진하였으나 1998년 ITU-T 회의에서 IMT-2000 패밀리 개념을 도입함으로써 실제적으로 IMT-2000 국제 단일 표준화는 가능하지 않게 되었고, 현재 진행되고 있는 유럽의 3GPP DSWCDMA(UMTS; Universal Mobile Telecommunications Systems) 방식과 북미의 3GPP2 MC-WCDMA(cdma2000) 방식이 양립해 표준화하고 있다.

각국의 표준화 참여 현황을 보면, 북미의 CDMA PCS 운용자 및 제조업체(모토로라, 퀄컴, 루슨트테크놀로지, 노텔 등)는 CDG(CDMA Development Group)를 중심으로 MC-WCDMA의 ANSI MAP(Mobile Application Part ) 기반 네트워크로 진화를 추진하고 있고, 유럽의 GSM(Global System for Mobile communications) 운용자 및 제조업체(에리슨, 노미아, 지멘스 등)와 일본 PDC 운용자(NTT 도코모 , KDDI 등) 및 제조업체(NEC 등)를 중심으로 DS-WCDMA의 GSM MAP 기반 네트워크로 진화를 추진하고 있다.

새로운 무선 디바이스의 출현

IMT-2000은 기존 회선 모드의 음성 및 데이터 서비스를 지원하면서 최대 2Mbps의 무선 패킷 모드 데이터 서비스와 글로벌 로밍 서비스 제공을 특징으로 하는 차세대 이동통신 시스템이다. 음성 및 데이터 서비스 품질을 보장하면서 이동 중에도 384kbps 이상의 전송속도가 보장된다.

이러한 3G 서비스에 따른 단말기의 개발도 활발히 진행되고 있으며 현재의 이동통신 제조업체와 PDA 제조업체들이 새로운 형태의 단말기 개발에 박차를 가하고 있다. 현재까지는 PDA에 이동통신 모듈을 결합한 형태의 스마트폰의 형태로 진행되고 있으나 빠른 시일안에 본격적인 형태의 3G 단말기가 나오리라고 예상되고 있다. 현재는 마이크로소프트의 포켓PC 규격이나 팜 OS를 기반으로 한 ‘이동통신+PDA 기기’가 주류를 이루고 있다.

또한 기존의 PC하드웨어 제조 업체와 소프트웨어 제조 업체들이 본격적으로 모바일 시장에 승부를 걸고 있다. 현재는 휴대형 정보단말기들의 등장과 더불어 휴대전화와 휴대형 오디오 및 게임기 등이 통신기능과 인터넷접속 기능을 지원하다 보니 각 제품들에 대한 경계가 사라지고 있으며, 이러한 상황은 앞으로 더욱 가속화 될 전망이고 스트리밍 기술도 꼭 이동전화에만 국한되는 것이 아니라 이러한 모든 기기들을 타겟으로 계속 개발이 진행되고 있다.

아직은 서비스 수준 미비

일본의 NTT에서는 이동전화와 전용의 화상단말기를 통해 ‘M-스테이지’라는 멀티미디어 스트리밍 전송서비스를 하고 있으며 현재까지는 비싼 가격과 휴대의 불편함, 높은 전력소모로 인해 큰 성공을 기대하기는 어렵지만, 향후 제대로 된 3G 단말기들이 개발돼 이러한 제약사항들이 사라지게 되면 본격적인 모바일 멀티미디어시대가 전개되리라 예상한다.

3G, 2Mbps 속도 가능

3G서비스는 유무선 환경에서 단말 또는 사용자 접속카드로 음성, 고속데이터, 영상 등을 포함하는 2Mbps급의 멀티미디어 서비스를 제공하며, 고도화된 이동성을 바탕으로 전세계적으로 서비스를 제공할 수 있는 글로벌 로밍을 주된 특징으로 하는 글로벌 무선멀티미디어 서비스다.

지구촌 어디서나 원하는 상대와 음성과 영상 등 멀티미디어 정보를 주고 받을 수 있고, 전세계적인 로밍이 가능한 음성 및 비음성 서비스를 제공하며, 국가별, 지역별로 서로 다른 무선시스템을 통일하는 것을 목표로 하고 있다. 또한 멀티미디어 스트리밍이 가능하며 실시간 화상회의 및 유무선 기기간의 컨텐츠의 공유 및 통합을 가능케하는 고도화된 서비스다.

MMS, 1∼2년 내 서비스 전개

또한 새롭게 부각되고 있는 또 하나의 서비스로는 3G 시스템을 이용한 차세대 메시징서비스인 MMS(Multimedia Me-ssaging Service)이다.

기존 문자위주의 단문전송서비스(SMS)와 현재 각 이동통신회사가 서비스중인 간단한 그림 및 멜로디 전송이 가능한 EMS(Enhanced Messaging Service)를 한단계 더 발전시켜 동영상 및 음성을 메일에 포함시키거나 실시간 스트리밍을 통한 컨텐츠의 전송을 목적으로 현재 규격화가 진행중이고 에릭슨과 노키아의 주도로 3G 메시징서비스의 표준으로 자리잡았다. 향후 1~2년 이내에 이러한 형태의 서비스가 전개될 것이다.

다양한 멀티 부가서비스 구현 준비할 때

지금까지는 메시지 혹은 메일의 형태가 단순한 음성과 텍스트로서 개별적으로 운영되어 왔다면, MMS 서비스는 이러한 두 개의 서로 다른 데이터를 멀티미디어 데이터와 통합하여 새로운 서비스를 창출할 것으로 예상된다.

동영상 메시징 서비스 시스템은 차세대 영상 전송의 표준으로 기대되는 MPEG-4 기능을 H/W 또는 S/W에 의하여 구현해 내장한 시스템이 반드시 필요하며, 차세대 이동전화 서비스로 각광 받게 될 IMT-2000과의 서비스 통합이 요구되므로 MPEG-4에 의한 영상 메시징 서비스 수용은 이를 해결하는 수단으로 등장할 것이다. 동영상 메시징 서비스는 제한된 주파수 영역의 사용으로 인하여 채널 자원이 부족한 무선 통신 서비스에 있어서 호 완료율을 높여주면서 다양한 부가 서비스의 제공을 가능하게 한다.

현재 국내외 관련업체 및 3GPP(3rd Generation Partnership Project), 3GPP2, WAP(Wireless Application Protocol) 포럼 등 표준화 기구를 중심으로 시스템 규격 작업 및 상용 시스템 개발이 진행되고 있다. 하지만 3GPP를 제외하면 아직 규격에 대한 논의가 진행되는 수준으로 서비스나 시스템에 대한 규격은 발표된 것이 없는 실정이다.

다만 3GPP는 올 3월에 발표한 ‘릴리스 1999’에 MMS규격(3GTS 23.140 V3.0.1, Multimedia Messaging Service(MMS) Functional DescriptionStage 2) 3GPP2는 올해 말까지 멀티미디어 관련 호 처리, 스트리밍 및 부가 서비스 규격을 작성한다는 목표를 가지고 작업이 진행중이다.

그리고 앞으로는 PC 수준에서나 가능했던 MPEG-4 멀티미디어 컨텐츠의 전송이 모바일기기 및 이동전화를 통해서도 서비스될 예정이고 다양한 컨텐츠 개발 및 유무선 통합에 멀티미디어 컨텐츠의 다각화가 이뤄져야 할 것이며 이제 다양한 멀티미디어 부가서비스 개발을 시작할 때다.

MPEG-4로 여는 멀티미디어 세상

그림 7, 8, 9와 같이 지난호에 설명한대로 MPEG-4는 동영상과 각종 그림이나 음성, 웹 컨텐츠 및 데이터를 하나로 압축하여 전송하고 개별적으로 디코딩이 가능하기 때문에 다양한 형태의 컨텐츠 구현이 가능하고 이러한 형태의 서비스가 모바일기기 및 디지털 TV, PC 등을 통해 서비스될 예정이다. 지금까지 살펴본 대로 신기술의 도입과 서비스의 다각화로 본격적인 멀티미디어 서비스가 시작될 예정이고 이에 따른 모바일 스트리밍 기술도 점점 더 큰 비중을 차지하게 될 것이다.

출처:<데이터넷>

 

 

 

                                                               

최종편집일 2003년 2월 19일 강완신