经过十几年的不断摸索和研究,人们对“多媒体”的认识进一步加深,在多媒体的概念、定义、媒体类型、多媒体系统的特征等方面逐渐达成了共识,并推出了大量多媒体应用系统,使之渗透到了人们生活的各个方面,以至于如今的多媒体计算机变成了家用计算机的代名词。
本章将对媒体、多媒体、多媒体技术等基本概念以及相关技术加以简要介绍,并回顾和展望多媒体技术的发展及应用。
1.1多媒体的基本概念
1.1.1媒体与多媒体
媒体(Media):媒体是信息表示和传输的载体。媒体可以是图形、图像、声音、文字、视频、动画等信息表示形式,也可以是显示器、扬声器、电视机等信息的展示设备,或传递信息的光纤、电缆、电磁波、计算机等中介媒质,还可以是存储信息的磁盘、光盘、磁带等存储实体。
多媒体(Multimedia):一般而言,不仅指多种媒体信息本身的有机组合,而且指处理和应用多媒体信息的相应技术。因此,“多媒体”实际上常常被当做“多媒体技术”的同义词。通常可把多媒体看做是先进的计算机技术与视频、音频和通信等技术融为一体而形成的新技术或新产品。
多媒体计算机技术(MultimediaComputerTechnology):指计算机综合处理文本、图形、图像、音频和视频等多种媒体信息,使这些信息建立逻辑连接,集成为一个交互式系统的技术。简而言之,多媒体计算机技术就是用计算机实时地综合处理图、文、声、像等信息的技术。
1.1.2多媒体技术的特点
1.信息载体的多样性
信息载体的多样性即信息媒体的多样性,是相对于传统计算机所能够处理的简单数据类型而言的,早期的计算机只能处理数值、文本和经过特别处理的图形和图像信息。多媒体把机器处理的信息多样化或多维化,通过对信息的捕捉、处理和再现,使之在信息交互的过程中具有更加广阔和更加自由的空间,满足人类感官方面全方位的多媒体信息需求。
2.信息载体的交互性
信息载体的交互性是指用户与计算机之间进行数据交换、媒体交换和控制权交换的一种特性。多媒体载体如果具有交互性,将能够提供用户与计算机间信息交换的机会。事实上,信息载体的交互性是由需求决定的,多媒体技术必须实现这种交互性。
根据需求,信息交互具有不同层次。简单的低层次信息交互的对象主要是数据流,由于数据具有单一性,因此交互过程较为简单。较复杂的高层次信息交互的对象是多样化信息,包括作为视觉信息的文字、图形、图像、动画、视频信号,以及作为听觉信息的语音、音频信号等。多样化信息的交互模式比较复杂,可在同一属性的信息之间进行交互动作,也可在不同属性的信息之间交叉进行交互动作。
3.信息载体的集成性
信息载体的集成性首先是指多种不同的媒体信息,如文字、声音、图形、图像等有机地进行同步组合,从而成为完整的多媒体信息,共同表达事物,做到图、文、声、像一体化,以便媒体的充分共享和操作使用。集成性还指处理这些媒体信息的设备或工具的集成,强调与多媒体相关的各种硬件和软件的集成。硬件方面,具有能够处理多媒体信息的高速及并行的CPU系统、大容量的存储设备、适当的多媒体多通道的输入输出能力及宽带的通信网络接口。软件方面,有集成一体化的多媒体操作系统、适当的多媒体管理和使用的软件系统和创作工具、高效的各类应用软件等,作用是为多媒体系统的开发和实现创建一个理想的集成环境。
4.信息处理的实时性
信息载体的实时性是指多媒体系统中的声音和活动的视频图像是与时间密切相关的,甚至是强实时的,多媒体技术必然要支持对这些时间媒体的实时处理。图像和声音既是同步的也是连续的。实时多媒体系统应该把计算机的交互性、通信的分布性和电视、音频的真实性有机地结合在一起,达到人和环境的和谐统一。
1.1.3多媒体计算机及其特殊性
多媒体计算机(MultimediaPersonalComputer,MPC):一般而言,能够综合处理多种媒体信息(包括对多种媒体信息进行捕获采集、存储、加工处理、表现、输出等),使多种媒体信息建立逻辑连接,集成为一个系统并具有交互性的计算机,称为多媒体计算机。从多媒体计算机技术组成结构的角度,一个多媒体计算机系统的结构可用图11表示。
由图11可知,由于多媒体计算机具有集图、文、声、像等于一体的信息处理能力,故它与普通计算机相比,既有共性,又有其特殊性,两者主要的区别如下所述。
1.硬件系统方面的区别
多媒体计算机的主要硬件除了常规的硬件如主机、软盘驱动器、硬盘驱动器、显示器、网卡之外,还包括音频信息处理硬件、视频信息处理硬件及光盘驱动器等部分。
1)音频卡(SoundCard)
音频卡也称为声卡,主要功能是用来处理声音,包括采样、量化、编辑、D/A转换、播放等,使多媒体计算机具有录制和播放各类声音(语音和音乐)的能力。音频卡可支持11.025kHz、22.05kHz、44.1kHz三种采样频率,16位采样精度和单、双声道,生成WAVE格式文件,并对数字化WAVE文件进行压缩和解压缩。音频卡具有MIDI(乐器数字化接口)合成器,可以生成和播放MIDI文件,使其成为一架电子乐器。另外,音频卡还有CDROM音频输入和CDROM控制器,可以播放CD光盘音乐。
2)视频卡(VideoCard)
视频卡也称为视频捕捉卡,是多媒体计算机获取图像和视频的主要接口部件。其主要功能是通过摄像机、录像机或电视获取视频信号,将其数字化后以文件形式存储在计算机内,且经过数∕模转换后能将捕获的视频在VGA显示器上的视窗内播放。
视频卡采集静止图像时,以一定的时间间隔进行画面捕捉,即获取一些特定的图像,用BMP、PCX、TGA等多种图像格式保存所捕捉到的画面。有些高级的视频卡还可以对捕捉到的画面进行JPEG压缩后再存盘。
视频卡在VideoforWindows软件的支持下可以连续对视频进行动态采集,并利用声卡对伴音进行同步捕捉,生成动态视频文件AVI。具有动态视频捕捉功能的专业级视频卡一般都有硬件视频压缩功能。
3)视频解压缩卡
视频解压缩卡又称视频回放卡。由于MPEG标准是国际标准化组织颁布的运动图像的压缩标准,因此视频解压缩卡又称MPEG解压缩卡或MPEG回放卡。其主要功能是将由视频卡采集并数字化后的压缩视频数据通过解压缩还原成普通的数字视频信号,并在显示器上还原成影像。
当主机将压缩的MPEG数据传送到解压缩卡后,CPU会将数据流分离成影像数据流和声音数据流,并将它们分别传送给各个解压缩芯片,进行解压缩处理,得到恢复的影像数据流和声音数据流,然后进行数/模转换,获得通常的视频与音频输出。
视频解压缩卡作为一种动态图像的播放部件,它可以支持全屏幕的CDI、VideoCD、卡拉OKCD和MPEG文件所记录的视频的播放。因此在已配有CDROM驱动器和音箱的基础上,再配置一块视频解压缩卡,便能在多媒体计算机上欣赏丰富多彩的影视节目。
4)电视接收卡
电视接收卡简称电视卡,其主要功能是将电视信号转变成VGA信号,并在显示器上播放电视节目,使一台多媒体计算机兼作一台彩色电视机。由于计算机显示器分辨率高、色彩丰富、显示颗粒细,因此,在MPC上播放电视节目比在电视机上播放的画面更清晰、色彩更鲜艳、效果更好。
5)视频转换卡
视频转换卡又称为VGA/TV显示转播卡,其作用正好与电视卡相反,它将VGA显示信号重新编码后,转变成模拟视频信号,提供给电视机或录像机进行演示或录制。
因此,在计算机上配置一块视频转换卡后,可以把电视机作为显示器,把录像机作为图像存储设备,这样就可以在电视机上观看VGA画面,并把显示的字符、图像、动画等录制到录像带上保存起来。视频转换卡能输出复合视频、RGB三色视频或SVideo视频等多种类型的视频信号,能与VGA、SVGA(640×480)等显示模式兼容,并支持NTSC、PAL制式等多种视频标准。
6)FAX/Modem卡
在物理位置不同的计算机之间可以通过计算机网络进行数据交换(通信),即在计算机中安装一块网卡,使用通信协议就能使远离但联网的两台计算机之间进行信息传输。另外,在计算机上安装调制解调器(Modem),利用电话线路就能与另一地点安装有相同(或者兼容的)调制解调器的计算机进行数据交换。如果在Modem板上集成了传真(FAX)功能,则计算机将具有传真机的功能,使通信更快更有效。
2.操作系统方面的区别
多媒体操作系统也称为多媒体核心系统(MultimediaKernelSystem),它具有实时任务调度、多媒体数据转换和同步算法,对多媒体设备进行驱动、控制,以及图形用户界面等功能,它不同于DOS和UNIX,一般是重新设计或在已有操作系统的基础上扩充和改造出来的功能更强大的操作系统。
3.MPC具有更加丰富多彩的软件
多媒体软件可以满足人们欣赏高质量的数字音响、合成音乐以及高清晰影视图像和动画的需要。多媒体计算机的应用几乎覆盖了计算机应用的绝大多数领域,而且还开拓了涉及人类生活、娱乐、学习等方面的新领域。多媒体计算机的显着特点是改善了人机交互方式,集图、文、声、像等处理于一体,更接近人们自然的信息交换方式。
1.1.4多媒体技术的发展简介
多媒体技术是一门前景广阔的计算机应用技术,它使计算机具备综合处理图像、音频、视频、动画和文字的能力,可帮助人们创作许多丰富多彩、赏心悦目的作品,给人们的生活、工作和学习增添色彩和乐趣。目前,多媒体技术已广泛应用到社会各个领域,同时也是当今世界许多大众文化产业发展的新技术。
多媒体技术经历了不断发展的过程。科学技术的进步和社会的需求是促进多媒体发展的基本动力。
1.启蒙发展阶段
1895年,俄罗斯亚·斯·波波夫和意大利工程师马可尼(GugliemoMarconi)分别在俄罗斯和意大利独立地实现了第一次无线电传输。
1901年12月,马可尼又完成跨越大西洋、距离3700千米的无线电越洋通信。无线电最初作为电报被发明,现在成了最主要的音频广播介质。
多媒体技术的一些概念和方法起源于20世纪60年代。
1965年,纳尔逊(TedNelson)为计算机上处理文本文件提出了一种把文本中遇到的相关文本组织在一起的方法,并为这种方法杜撰了一个词,称为“hypertext(超文本)”。
1967年,NicholasNegroponte在美国麻省理工学院(MIT)组织体系结构机器组(ArchitectureMachineGroup)。
1968年,DouglasEngelbart在SRI演示了NLS系统。
1969年,纳尔逊(Nelson)和VanDam在布朗大学(Brown)开发出超文本编辑器。
1976年,美国麻省理工学院体系结构机器组向DARPA提出多种媒体(MultipleMedia)的建议。
多媒体技术实现于20世纪80年代中期。
1984年,美国Apple公司在研制Macintosh计算机时,为了增加图形处理功能,改善人机交互界面,创造性地使用了位映射(bitmap)、窗口(window)、图符(icon)等技术。
1987年,Apple公司又引入了“超级卡”(Hypercard),使Macintosh计算机成为更容易使用、学习并且能处理多媒体信息的机器,受到计算机用户的一致赞誉。
1985年,Microsoft公司推出了Windows,它是一个多用户的图形操作环境。Windows使用鼠标驱动的图形菜单,从Windows1.x,Windows3.x,WindowsNT,Windows9x,到Windows2000,WindowsXP等,都是一个具有多媒体功能、用户界面友好的多层窗口操作系统。
1985年,美国Commodore公司推出了世界上第一台多媒体计算机Amiga系统。
1986年,荷兰Philips公司和日本Sony公司联合研制并推出CDI(compactdiscinteractive,交互式紧凑光盘)系统,同时公布了该系统所采用的CDROM光盘的数据格式。1987年,国际第二届CDROM年会展示了交互式数字视频(DVI,DigitalVideoInteractive)相关的技术。这便是多媒体技术的雏形。
1989年初,Intel公司把DVI技术开发成为一种可普及商品,随后又和IBM公司合作推出ActionMedia750多媒体开发平台。
1991年,Intel和IBM又合作推出了改进型的ActionMediaII。ActionMediaII在扩展性、可移植性、视频处理能力等方面均大大改善。
2.标准化阶段
1989年,TimBernersLee在日内瓦的CERN用HTML及HTTP开发了WWW网,随后出现了各种浏览器(网络用户界面),使互联网飞速发展起来;同年,Intel推出80486处理器,集成120万个晶体管,并首次内置浮点运算器和8KB缓存,其速度比8088快50倍以上。1990年,Windows3.0推出。
1991年,在日内瓦确定HTML格式,为WWW发展奠定了基础。
1992年,经过改进的Windows3.1推出,年销量2700万套,席卷全球。由微软公司联合一些主要PC厂商和多媒体产品开发商组成了MPC联盟,制定了第一代多媒体计算机标准--MPC1标准;同年,Intel推出了486DX266处理器。
1993年,美国伊利诺伊州大学推出了首个WWW浏览器Mosaic。