모바일 : 모바일 얼굴이지만 여전히 많은 종류의 서비스가 있기 때문에 모바일을 사용하고 싶습니다. 3G는 3 세대 이동 통신 기술을 의미합니다. 우리는 현재 2세대와 5세대 이동통신 기술을 사용하고 있습니다.3G란 무엇인가요?
3G는 "3세대", 즉 3세대 이동 통신 시스템(IMT-2000)의 약자로 고속 모바일 데이터 네트워크 통신 분야의 업계 용어입니다. 이동통신 시스템 개발의 역사에서 아날로그 휴대전화를 '1세대', 디지털 휴대전화를 '2세대', 그 이후의 기술 개발을 '3세대'로 분류합니다. 현재 전 세계에는 1세대 및 2세대 통신 시스템이 많이 존재하며, 이는 단일 통신 단말기의 전 세계적인 보급에 걸림돌이 되고 있습니다. 또한 3G 기술이 직면한 가장 큰 과제는 단일 통신 단말 장치의 글로벌 가용성을 지원하기 위한 시스템의 표준화입니다. 3G 기술은 필요에 따라 음성 데이터뿐만 아니라 비디오 데이터까지 다양한 데이터 속도를 유연하게 지원하여 모든 범위의 모바일 멀티미디어 시스템을 지원하도록 설계되었습니다. 3G 네트워크를 사용하면 언제 어디서나 풀 비디오, 화상 회의, 고품질 음성 및 웹 데이터 서비스를 제공하는 등 높은 대역폭이 필요한 애플리케이션을 위한 데이터를 전송할 수 있습니다.
일본에는 현재 두 가지 3G 표준이 있습니다: NTT 도코모와 보다폰은 W-CDMA를 사용하고, Au는 CDMA2000 1x를 사용합니다.
3G-324M 프로토콜
3세대 이동 통신 시스템인 IMT-2000의 기술 표준은 ITU-R과 ITU-T 조직에서 개발했습니다.ITU-R과. ITU-T 조직은 다양한 국가 및 지역 표준화 기구에서 제출한 제안서(표준 초안)를 접수하고 평가합니다. 표준 초안 작성에 참여하는 주요 표준 기관으로는 ARIB(무선 산업 및 기업 협회), TTC(통신 기술 위원회), ETSI(유럽), T1(미국), TTA(북한)가 있습니다. 3GPP(3세대 이동통신 표준화 기구)는 글로벌 애플리케이션을 위한 표준 초안 개발을 목표로 위 표준화 기구들로 구성되어 있으며, 3G-324M(*1)은 3GPP에서 개발한 프레임워크 표준으로 ITU-T H.324/M 등의 국제 표준을 기반으로 무선 도로 교환망의 네트워크 개발을 지원합니다. 무선 회로 전환 네트워크에서 실시간 멀티미디어 서비스 애플리케이션을 지원할 수 있습니다. 이 표준에 포함된 몇 가지 하위 프로토콜 표준은 음성, 비디오, 사용자 데이터 및 제어 데이터의 멀티플렉싱 및 분리(h . 223), 대역 내 통화 제어(H.245) 등이 있습니다. 이 표준은 시각 및 음성 통신 애플리케이션을 지원하기 위한 기능 구성 요소와 엔드투엔드 통신 절차를 정의합니다.
(*1) 3G-324M: H.323은 인터넷 및 LAN 기반 통신 시스템과 단말 장비를 위해 ITU-T에서 개발한 프로토콜 표준이며, SIP는 IETF에서 개발한 잘 알려진 멀티미디어 통신 프로토콜 표준입니다. 통신 네트워크는 게이트웨이를 통해 SIP 프로토콜 및 H.323 시스템과 상호 연결하기 위해 프로토콜 표준의 지원이 필요하며, 그 중 H.324/M은 이동 통신 전용 프로토콜 표준입니다.
3G-324M 표준은 IMT-2000을 지원하기 위해 H.324/M을 더욱 발전시킨 것입니다.
3G-324M 표준은 기술적으로 H.324/M과 매우 유사하지만 다음과 같은 차이점이 있습니다. 비디오 코딩의 필수 기본 표준으로 H.263, 권장 표준으로 MPEG-4를 지정하고, 오디오 코딩의 필수 표준으로 AMR, 단일 이동통신 채널에서 여러 오디오 및 비디오 신호의 다중화 적용 표준으로 H.223, 모든 단계에서의 메시지 제어 전환 표준으로 H.245를 지정하고 있습니다. 그러나 오류가 발생하기 쉬운 네트워크에서의 효율적인 전송 방법은 3G-324M 표준에서 정립되어 있습니다. 또한 레벨 2(H.223 부록 B에서 개발)는 향상된 내결함성 제어를 제공할 수 있는 필수 멀티플렉싱 프로토콜 계층입니다.
3G-324M 표준의 프로토콜 구성에 대한 자세한 내용은 아래에 나와 있습니다.
3G-324M 미디어 코딩 세트
3G-324M은 비디오, 오디오 및 데이터와 같은 미디어 유형에 대한 필수 미디어 코딩 표준을 정의합니다.
(1) 비디오 코딩
3G-324M은 H.263을 필수 기본 프로토콜(부록의 확장 표준 제외)로, MPEG-4를 권장 비디오 코딩 표준으로 지정합니다. 이전 코딩 표준인 H.263은 기존 H.323 시스템에서 여전히 사용되고 있으므로 이를 유지하면 시스템 호환성을 제공하며, MPEG-4는 H.263 기준 프로토콜보다 유연성이 뛰어나 보다 고급 오류 감지 및 수정 방법을 제공합니다.
두 코딩 세트는 일반적으로 QCIF(Quarter Common Intermediate Format) 입력 이미지 포맷을 사용하며, MPEG-4는 내결함성을 개선하기 위해 다양한 툴셋을 사용합니다. 여기에는 데이터 분할, 가역 가변 롱 코드(RVLC), 재동기화 식별 및 헤더 확장 코드(HEC)가 포함됩니다.
데이터 분할 방식은 식별자를 통해 이산 코사인(DCT) 계수와 모션 벡터 파라미터를 제공하여 한 데이터 세트의 오류가 다른 데이터 세트의 디코딩에 영향을 미치지 않도록 방지합니다. 예를 들어, 특정 매크로 블록에서 DCT 계수 오류가 감지된 경우에도 DCT 계수 오류를 숨기고 올바른 모션 벡터 정보로 매크로 블록을 재구성할 수 있습니다. 이러한 방식으로 이 방법은 디코딩 과정에서 오류가 있는 매크로블록을 이전 인접 데이터 프레임의 올바른 매크로블록으로 대체하는 방법에 비해 더 높은 품질의 비디오 이미지 디코딩을 제공할 수 있습니다.
RVLC 방식은 프런트엔드(정방향) 또는 엔드(역방향)에서 특정 데이터 블록을 디코딩할 수 있습니다. 이 방법은 결함이 있는 데이터 세트를 복구할 확률을 높여줍니다.
재동기화 식별자는 디코더가 디코딩 프로세스를 재동기화하는 데 도움이 되는 비트 스트림에 삽입되는 몇 가지 코드입니다.
HEC는 타이밍 정보도 포함하는 확장된 재동기화 식별자를 통해 디코딩 프로세스의 보다 효율적인 재동기화를 지원합니다.
(2) 음성 코딩
ITU-T 표준에는 음성 코딩에 대한 필수 요구 사항이 없으며, IMT-2000 음성 서비스만 3G-324M 장치를 지원하기 위해 필수 AMR 코딩(적응형 다중 속도)을 적용합니다. g.723.1은 3GPP에서 권장하는 선택적 이전 코딩 표준으로 H.323 등의 표준과의 호환성을 제공할 수 있습니다.
AMR 음성 코딩의 최대 처리 속도는 12.2kbps이며 실제 전송 속도는 기지국 거리, 신호 간섭, 교통 상황에 따라 4.75kbps에서 12.2kbps까지 다양하며, AMR은 연성 잡음 발생(CNG) 및 불연속 전송(DTX)도 지원합니다. 또한 처리 속도와 오류 제어를 동적으로 조정하여 현재 채널 환경에서 가능한 최상의 음성 품질을 제공합니다.
AMR 코딩은 불균등 오류 감지 및 보호(UED/UEP)도 지원합니다. 이 방법은 결정 가능한 데이터 관련성을 기반으로 비트 스트림을 분류합니다. 가장 관련성이 높은 데이터에서 오류가 감지되면 AMR 데이터 프레임을 직접 디코딩하고 데이터 오류를 숨길 수 있습니다.
(3) 데이터 통신 프로토콜
T.120은 데이터 회의 애플리케이션에 권장되는 데이터 통신 프로토콜입니다. 그러나 강제 규약은 없으므로 선택적 표준일 뿐입니다.
H.245 통화 제어
H.245는 H.324, H.310, H.323 및 V.75에 정의된 공통 통화 제어 표준입니다. 2년마다 개정되는 다른 ITU-T 권고 표준과 달리 H.245는 주로 매우 다양한 시스템에 적용되므로 요구 사항에 따라 수시로 개정해야 하며, 빠르게 진화하는 기능에 맞게 빠르게 진화하는 요구 사항을 충족해야 하기 때문입니다.
H.245는 단순 재전송 프로토콜(SRP) 또는 번호 지정 옵션이 있는 SRP(NSRP)를 사용하며, 오류가 발생하기 쉬운 환경에서 애플리케이션의 안정성을 보장하는 제어 채널 분할 및 재구성(CCSRL)을 위한 프로토콜 계층을 설정하고, SRP, NSRP 및 CCSRL의 사용은 협상 계층에서 결정하며, H.245는 ASN.1(Abstract Syntax Notation 1) 표준을 채택하여 자체 메시지 구조를 정의합니다. 또한 메시지 데이터는 PER(패킷 인코딩 규칙) 규칙에 따라 바이너리로 인코딩됩니다.
양 당사자가 H.245 세션을 시작하기 전에 해결해야 하는 문제 중 하나는 엔드포인트 장치 간에 프로토콜 충돌이 발생할 경우 어느 엔드포인트 장치가 해결 또는 주도권을 가질 책임이 있는지를 결정하는 것입니다. 엔드포인트 장치마다 H.223 신호 다중화/신호 분리, 비디오 및 오디오 코딩, 데이터 공유 등과 같은 기능 영역이 다를 수 있습니다. H.245는 두 장치 간의 협상을 지원하여 공통 기능 집합을 결정하는 기능 교환을 제공합니다.
미디어 및 데이터 스트림은 논리적 채널을 통해 전송되며 적절한 제어 지원이 필요합니다.H.245는 논리적 채널 신호를 사용하여 논리적 채널 전환 및 매개변수 교환을 지원합니다. H.245 표준에서 발신자는 수신자가 브로드캐스트하는 지원되는 기능 세트에 따라 양 당사자 간의 통신을 위한 코드 세트와 파라미터를 결정합니다. 수신기에 특정 기능 요구 사항이 있는 경우 모드 요청을 통해 송신기에 요청 신호를 보낼 수 있습니다.
마지막으로, H.245는 일련의 통화 제어 명령과 프롬프트를 사용하여 데이터 흐름 제어, 사용자 입력 프롬프트, 비디오 인코딩 제어, 신호 지터 및 왜곡 프롬프트를 제공합니다.
*H.245의 사용자 입력 표시(UII)는 사용자 상호 작용이 필요한 모든 애플리케이션 서비스에서 중요한 역할을 합니다. 비디오 메시징 애플리케이션의 경우 일반적인 UII 애플리케이션은 일반적으로 사용자 기본 설정 선택, 메시지 로깅 및 쿼리, 일반 사서함 관리 기능을 제공하며, H.245는 다양한 메시지(예: DTMF 오디오)의 안정적인 전송을 보장하는 안정적인 시그널링 프로토콜을 제공합니다.H.245 UII는 문자 프롬프트와 문자열의 길이를 나타내는 정보 프롬프트의 두 가지 수준의 사용자 프롬프트를 제공합니다. 예를 들어, 사용자가 특정 키를 누른 시간이 표시됩니다.
H.223 멀티플렉싱 및 신호 분리
다양한 수준의 내결함성 지원을 제공하기 위해 3G-324M은 여러 레벨의 H.223 전송을 정의합니다. H.223 멀티미디어 멀티플렉싱 프로토콜에서 적응 계층은 논리 채널에 QoS를 제공하고, 멀티플렉싱 및 디멀티플렉싱 계층은 여러 논리 채널을 단일 채널로 결합하는 기능을 제공합니다. 시분할 다중화 및 패킷 다중화 모드를 모두 지원할 수 있어 애플리케이션에 필요한 유연성, 고효율 및 짧은 지연 시간을 제공할 수 있습니다.
서킷 스위치 네트워크의 멀티미디어 통신에는 비디오, 음성, 데이터 서비스의 동시 전송을 지원하기 위한 멀티플렉싱 기술이 필요합니다. 멀티플렉싱 기술은 각 미디어 유형에 논리 채널을 할당하여 서로 다른 미디어 소스의 여러 비트 스트림을 단일 채널을 통해 전송하기 위해 단일 비트 스트림으로 결합할 수 있도록 합니다.
미디어 유형에 따라 해당 논리적 채널에 대한 QoS 요구 사항이 다릅니다. 예를 들어, 데이터 전송의 경우 일반적으로 지연 시간 요구 사항은 그리 엄격하지 않지만 완전한 오류 없는 전송이 필요합니다. 또한 음성 전송 지연은 엄격하게 제한되며 10-3 BER을 기준으로 통합 품질을 달성할 수 있습니다. 비디오 통신에는 데이터 전송과 오디오 통신이 필요합니다. 따라서 멀티플렉싱 기술에는 다양한 미디어 코딩 요구 사항에 따라 논리적 채널에 대해 서로 다른 QoS 제어를 제공할 수 있는 기능이 필요합니다.
(1) 멀티플렉싱 및 신호 분리 계층
레벨 0(H.223 기본 프로토콜)
H.223의 기본 프로토콜인 레벨 0은 동기화 및 비트 패딩 지원을 제공합니다. 레벨 0은 미디어, 제어 정보 및 패킷의 혼합을 지원하기 위해 16가지 멀티플렉싱 모드를 제공합니다. 멀티플렉싱 모드는 통신하는 엔드포인트 디바이스 간의 협상을 통해 결정할 수 있습니다. 레벨 0은 내결함성이 매우 제한적입니다. 비트 오류는 HDLC(High Level Data Link Controller) 프로토콜의 전송을 중단시키고 페이로드로 오인될 수 있는 비트 패딩에 영향을 줄 수 있습니다.
레벨 1(H.223 부록 A)
H.223 부록 A는 오류가 발생하기 쉬운 채널의 전송 성능을 효과적으로 향상시키는 동기화 메커니즘으로 레벨 1을 정의합니다. MUX-PDU의 동기 전송 성능을 향상시키기 위해 MUX-PDU 프레임에 사용되는 8 비트 HDLC 동기화 식별자는 16 비트 PN (의사 노이즈) 시퀀스로 대체되며 HDLC는보다 안정적인 프레임 패턴과 더 긴 프레임 식별자로 대체되며 의사 노이즈 신호 집합 인 PN 시퀀스는 실제로 통계적으로 무작위로 생성 된 0 및 1 비트 시퀀스 집합입니다. 무작위로 생성되지만 수신기는 특정 구조에 따라 시퀀스의 다음 기호가 무엇인지 결정할 수 있습니다.
멀티플렉스 프레임은 비트 패딩을 사용하지 않고 대신 바이트 기반(프레임의 시작이 첫 번째 바이트에 해당하는 8비트 비트 구조. 1바이트 = 8비트)이며 동기화 식별자를 바이트 단위로 검색합니다.
이러한 방식으로 동기화 마커의 생성은 저속 및 투명 전송 환경에서도 더 이상 결정론적이지 않습니다. 그러나 이는 비트스트림 오류 조건에서 동기화 식별 기능의 탐지를 크게 향상시킵니다.
레벨 2(H.223 부록 B)
레벨 2는 멀티플렉스 프로토콜 데이터 유닛에 보다 안정적인 데이터 프레임을 제공하기 위해 레벨 1을 더욱 개선한 것으로 H.223 부록 B에 정의되어 있습니다.
레벨 3(H.223 부록 C)
H.223의 부록 C는 가장 안정적인 전송 체계를 제공하는 레벨 3을 정의합니다. 여기에는 향상된 멀티플렉싱 및 변환 계층이 포함되어 있으며 순방향 오류 정정(FEC) 및 재전송 메커니즘(ARQ)을 제공합니다.
(2) 변환 계층
이 프로토콜은 상위 계층의 다양한 미디어 유형(데이터, 음성, 비디오)에 따라 세 가지 유형의 변환 계층(AL1, AL2, AL3)을 정의합니다. 상위 계층의 AL-SDU 데이터 유닛은 MUX 계층으로 전송되어 AL-PDU 데이터 유닛으로 전환되며, AL1은 데이터 전송을 기반으로 설계되어 주로 사용자 데이터와 H.245 제어 메시지를 전송하는 데 사용됩니다. 오류 제어 및 처리를 제공하려면 상위 계층 프로토콜이 필요합니다.AL2는 패킷 손실 모니터링 및 선택적 순차 코딩 제어를 위해 8비트 CRC(순환 중복 체크섬) 체크섬을 제공합니다.AL2는 가변 길이 AL SDU 단위를 지원할 수 있으며 오디오 데이터 전송에 이상적인 변환 계층입니다.AL3는 주로 비디오 애플리케이션을 기반으로 설계되었으며 16개의 CRC 체크섬과 선택적 순차 코딩을 제공합니다. 가변 길이 AL SDU 단위를 지원하며 전송 메커니즘을 옵션으로 제공합니다.
미디어 변환 소개
멀티미디어 이동 통신(예: 3G)을 위한 지원 기술은 사용자에게 네트워크에 연결된 모든 멀티미디어 단말기를 통해 언제 어디서나 멀티미디어 액세스를 제공할 수 있습니다. 그러나 현재 멀티미디어 콘텐츠와 서비스 애플리케이션을 다양한 유형의 단말기에 수용 가능한 형식으로 전달하는 방법이 문제입니다. 그러나 이러한 최종 디바이스는 컴퓨팅 성능, 디스플레이, 네트워크 액세스 및 대역폭 지원에서 다양한 차이가 있습니다.
미디어 변환 처리는 이미지 크기, 인코딩 형식, 멀티미디어 콘텐츠의 구성 등 프레임의 콘텐츠를 동적으로 조정하고 변환된 콘텐츠가 원본 콘텐츠에 최대한 충실하도록 만듭니다. 미디어 변환은 최종 디바이스에서 지원하는 기능 및 사용자 기본 설정을 기반으로 합니다. 미디어 변환 프로세스에 사용되는 관련 구성 요소는 다음과 같습니다.
변환에 필요한 멀티미디어 메시지 모델(다양한 형태의 콘텐츠에 대한 계층적 식별자 포함)은 멀티미디어 콘텐츠의 표시 및 전달을 지원합니다.
변환 전략 결정 컴포넌트는 콘텐츠의 특성을 분석하고 적절한 변환 전략을 계산 및 선택할 수 있습니다.
미디어 처리 기술은 멀티미디어 콘텐츠의 미디어 조작, 번역, 코드 변환 및 재구성을 지원합니다.
MPEG-7 및 최신 MPEG-21 표준은 미디어 변환을 지원하기 위한 멀티미디어 정보 모델의 정의를 제공합니다. 통신 사업자는 일반적으로 사용 가능한 미디어 처리 및 전송 리소스를 기반으로 실행 가능한 미디어 변환 전략을 개발합니다.
미디어 변환 처리 기술
미디어 변환 지원 기술은 미디어 내 변환과 미디어 간 변환의 두 가지 범주로 나눌 수 있습니다.
미디어 간 변환 기술은 특정 미디어의 특정 인코딩 체계에 따라 미디어 변환을 제공해야 합니다. 예를 들어, 비디오 프레임 속도, 이미지 형식, 특정 프레임 내 및 프레임 간 품질 등의 비디오 압축 특성을 기반으로 변환할 수 있으며 특정 데이터 크기 및 형식으로의 변환을 지원할 수 있습니다. 마찬가지로 대역폭 제한이 있는 최종 디바이스에도 변환을 통해 콘텐츠를 제공할 수 있습니다. 또한 최종 디바이스의 다양한 코드 지원 여부에 따라 그에 맞는 코드 변환을 제공할 수 있습니다.
3G-324M 기반 애플리케이션 서비스의 경우, 두 가지 표준 비디오 포맷인 H.263 및 MPEG-4 트랜스코딩이 필요합니다. 이 변환 모델에는 특정 미디어의 최소 인지 가능한 수신 품질에 따라 하한이 정해져 있는 내재적 한계가 있습니다. * 크로스 미디어 변환은 이러한 한계를 극복할 수 있습니다.
미디어 간 변환은 특정 미디어 유형을 "의미적으로 동등한" 미디어 유형으로 대체하여 사용자 수신에 미치는 영향을 최소화합니다.
예를 들어, TV 형식(720 x 480픽셀)의 비디오 클립을 일련의 정지 키 이미지로 변환할 수 있습니다. 이미지 장면이 변경되거나 크게 변하는 경우에만 이미지의 크기가 축소되어 QCIF 형식(176 x 144)으로 변환되고 저속 오디오 데이터가 동기화되고 NMS 메시지를 통해 캡슐화됩니다. 이를 통해 비디오 클립을 2.5G 휴대폰으로 전송할 수 있습니다.
디스플레이 성능과 네트워크 대역폭이 상당히 제한된 모바일 통신 환경에서는 모바일 비디오 서비스의 콘텐츠 전송 영역에서 미디어 내 및 미디어 간 변환이 중요한 역할을 하게 될 것입니다.
3세대 휴대폰 기반 애플리케이션
2001년 10월 1일, NTT 도코모는 세계 최초의 3세대 모바일 애플리케이션 서비스인 FOMA를 출시했습니다. 두 번째 휴대폰 애플리케이션 시스템인 '모바'에 비해 고속 데이터 통신 서비스와 화상 전화 기능을 제공할 수 있습니다. 영상 전화 기능은 대면 커뮤니케이션을 지원할 수 있어 기존 음성 커뮤니케이션의 획기적인 발전입니다.
2006년 6월 1일 서비스가 처음 출시된 이후, 사업자들은 세계 최초의 3세대 모바일 애플리케이션 서비스라는 점에서 가입자 증가에 대한 기대가 높았습니다. 그러나 단말기의 크기, 배터리 수명, 통신 커버리지가 아직 사용자의 요구를 완전히 충족시키지 못했기 때문에 FOMA 가입자의 증가는 기대만큼 활발하지 않았습니다. 2004년 FOMA 핸드셋의 성능이 향상되고 크기, 무게, 배터리 수명이 개선되면서 2004년 FOMA 가입자는 빠르게 증가했습니다. 2004년 7월 20일, NTT 도코모는 지난 두 달 동안에만 1만 명의 신규 가입자가 추가되어 FOMA 서비스 가입자가 500만 명을 넘어섰다고 발표했습니다. TCA(통신사업자협회)에 따르면 10월 30일 기준으로 FOMA 서비스 가입자 수는 757만 명에 달했으며, NTT 도코모는 2007년 3월까지 목표인 2,500만 명의 FOMA 서비스 가입자를 달성할 계획이라고 발표했으며, 이는 전체 도코모 휴대폰 사용자의 절반이 FOMA 서비스에 가입하는 것을 의미한다.
NTT도코모가 발표한 전략에 따르면, 단말기의 기능 향상, 영상통화 및 영상/문자 전송 서비스 등 다양한 성숙한 애플리케이션 서비스 개발 및 출시, 고속/대용량 데이터 전송이 가능한 'FOMA' 애플리케이션 서비스 확대 등을 통해 제품군을 지속적으로 확대할 계획이다. 고속-대용량 데이터 전송을 지원할 수 있는 애플리케이션 서비스입니다.
휴대폰의 동영상 기능은 멀티미디어 및 일반 환경에서 다양한 애플리케이션을 지원하기 위해 계속 진화할 것입니다. 3G 기술에서 비디오 메시징(비디오 메일) 및 비디오 스트리밍 기능은 휴대폰 사용자에게 콘텐츠 전송을 지원할 수 있으며, 3G 비디오 게이트웨이의 기능은 3G 사용자에게 광대역 및 기타 액세스 라인을 통해 PC에 연결할 수 있도록 하는 것입니다. 화상 회의는 기본적인 모바일 비디오 서비스가 되었습니다. 3G 기술을 사용하지 않는 애플리케이션 시스템의 경우 위의 애플리케이션 서비스도 개발해야 합니다.
영상전화 기능을 이용한 애플리케이션 시스템 개발
영상전화 기능을 이용한 애플리케이션 서비스에는 다음과 같은 것들이 있습니다:
실시간/비실시간 애플리케이션
단방향/양방향 애플리케이션
지점간/다점간 애플리케이션
개인/상업용
다양한 애플리케이션 시스템마다 그에 맞는 운영 플랫폼(개발/구현 환경)이 필요합니다. NMS 텔레콤은 이러한 애플리케이션의 개발을 지원할 수 있는 "비디오 액세스" 애플리케이션 개발 플랫폼을 제공합니다.
비디오 메시징(비디오 메일) 애플리케이션
회사나 가족과 떨어져 여행할 때 여행 사진을 찍어 친구, 가족, 동료에게 비디오 이미지를 전송할 수 있습니다. 비디오 메시징 서비스를 사용하면 FOMA 휴대폰에서 원격 FOMA 휴대폰으로 이메일을 보낼 수 있을 뿐만 아니라 네트워크(예: IP 네트워크)에 연결된 H.323 장치로 이메일을 보낼 수 있습니다. 게이트웨이, 비디오 녹화/재생 및 비디오 변환 기능을 통해 다양한 메시징 애플리케이션 시스템을 구축할 수 있습니다. 영상 메일 애플리케이션의 통화 접속 단말은 영상 서버이므로 서버에 영상을 저장하고 재생할 수 있도록 영상 서버에 트랜스코딩 기능이 탑재되어 있어야 합니다.
화상 커뮤니케이션/화상 회의 애플리케이션
현재 포인트 투 포인트와 멀티포인트 화상 회의가 있습니다. FOMA와 IP 클라이언트 간에 화상 회의를 만들 수 있으며, 과거에는 PC만 웹 회의에 참여할 수 있었지만 이제는 FOMA 사용자도 웹 회의에 참여할 수 있습니다. 집과 사무실을 떠나 있는 경우에도 인터넷을 통해 친구 및 동료와 화상 커뮤니케이션을 할 수 있습니다.
소방서나 경찰서에서는 위험 회의를 설정하고 화재, 사고, 범죄 현장의 영상 정보를 본부와 공유할 수 있습니다.
영상 녹화 및 재생 기능이 추가되면 화상 회의는 향후 정보 조회에 사용할 수 있습니다. 마찬가지로 비즈니스 애플리케이션은 위의 기능을 사용하여 자체 비디오 콜 센터를 구축할 수 있습니다. 비디오 서버는 비디오 하이브리드 코덱 변환을 통해 구성한 후 다자간 화상 회의 애플리케이션을 지원할 수 있습니다.
비디오 스트리밍 애플리케이션
비디오 스트리밍 애플리케이션은 스트리밍 서버에 저장된 비디오 클립을 게이트웨이를 통해 FOMA 휴대폰으로 전송할 수 있습니다. 뉴스레터, 여행 정보, 상품 설명, 광고, 심지어 영화까지 동영상으로 처리하여 사용자에게 전달할 수 있습니다. 이러한 처리를 통해 기존의 음성 메시지보다 더 시각적이고 직관적인 정보를 전달할 수 있습니다.
비디오 스트리밍 애플리케이션은 콘서트나 스포츠와 같은 이벤트의 라이브 스트리밍도 지원할 수 있으며, 원격 서버를 통해 FOMA의 휴대폰으로 전송됩니다. FOMA 휴대폰을 사용하면 언제 어디서나 원격 감시 카메라로 촬영된 다양한 이벤트의 실시간 비디오 스트림을 시청할 수 있습니다. 적용 분야에는 재난 지역, 관광지, 교통, 병원, 학교, 중요한 행사 등이 포함됩니다. 동일한 기술을 가정에서 자녀와 애완동물을 모니터링하는 데에도 사용할 수 있습니다. 이는 기본적인 단방향 실시간 애플리케이션입니다.
3G-324M 프로토콜을 사용하면 압축된 비디오(MPEG4-4), 압축된 음성(AMR) 및 신호를 64kbps로 전송할 수 있습니다. 이 방식은 패킷 네트워크 기반 영상 전송에 비해 영상 및 음성 정보를 보다 효율적으로 전송할 수 있습니다. 이 서비스를 사용하려면 데이터 스트림에 적합한 처리를 제공하기 위해 트랜스코더가 장착된 비디오 게이트웨이가 필요합니다.
자세한 내용은 www.nmscommunications.com.cn NMS.
에서 확인하세요.