200 likes | 314 Views
UE 503, cours CM. n°4. Analyse multimédia. Par : Sahbi SIDHOM MCF. Université Nancy 2 Equipe de recherche SITE – LORIA Sahbi.Sidhom@loria.fr. Cours n°4 :. C’est quoi le multimédia (définitions) ? Comment il est né et comment il prospère (évolutions) ? Comment il évolue (actuellement) ?
E N D
UE 503, cours CM. n°4 Analyse multimédia Par : Sahbi SIDHOM MCF. Université Nancy 2 Equipe de recherche SITE – LORIA Sahbi.Sidhom@loria.fr UE503 (IUP.L3) : S. Sidhom
Cours n°4 : • C’est quoi le multimédia (définitions) ? • Comment il est né et comment il prospère (évolutions) ? • Comment il évolue (actuellement) ? A.5. Son numérique • C’est quoi l’analyse du multimédia ? • Comment analyser un document multimédia ? • Comment se retrouve la culture multimédia dans l’entreprise (besoins, intérêts, etc.) ? • Quels sont les outils (technologiques) visant à favoriser la diffusion et l’appropriation de la culture multimédia en entreprise ? UE503 (IUP.L3) : S. Sidhom
A.5. Son numérique • Qu’est-ce que le son ? nous désignons à la fois le mot son : • un phénomène physique vibratoire complexe • la sensation auditive engendrée par ce phénomène • Qu’est-ce que le phénomène vibratoire ? un son naît (en général) de la déformation d’un corps. Cette déformation engendre une vibration mécanique qui va à son tour déformer le milieu dans lequel se trouve le corps. Ainsi, la vibration va se propager de proche en proche, selon une onde dite sonore ou acoustique. • Exemple : la membrane d’un instrument à percussion déformée par la choc du maillet ou la corde d’un violon frottée par l’archet. UE503 (IUP.L3) : S. Sidhom
Transmission d’un son • La vibration de l’air constitue un phénomène périodique car elle se reproduit identiquement à elle-même au bout d’un certain temps (ou période). • La période (T, exprimée en secondes) désigne le temps nécessaire à un cycle vibratoire complet, c’est-à-dire une oscillation. • La fréquence (f, exprimée en Hertz) définit le nombre de périodes par unité de temps : il s’agit du nombre d’oscillations par seconde. • Relation entre T et f : • la fréquence est l’inverse de la période • plus la période est petite, plus la fréquence est grande • f (en Hz) = 1 / T (en secondes) • Exemple : propagation d’une onde provoquée par la chute d’une pierre lancée sur un plan d’eau UE503 (IUP.L3) : S. Sidhom
amplitude +A 1 s 0 Temps (s) - A période Fréquence (= 3Hz) Illustration : chute d’une pierre UE503 (IUP.L3) : S. Sidhom
Phénomènes sonores • On considère généralement que la perception auditive humaine s’étale (dans le meilleur des cas) entre 20 Hz et 20 kHz. • La fréquence est un paramètre essentiel des phénomènes sonores car c’est d’elle que dépend la hauteur du son perçue : Exemples : • la fréquence de 20 kHz (= 20 000 périodes/s) est considérée comme la limite de la perception humaine dans l’extrême aigu, mais cette perception des fréquences élevées se dégrade avec l’âge et la fatigue auditive • La fréquence de 20 Hz (= 20 périodes/s) est quant à elle considérée comme la limite inférieure des la perception humaine dans l’extrême grave • Cette fourchette de fréquences définit donc la bande de fréquences ou bande passante utile d’un système de reproduction sonore de haute qualité qui doit s’efforcer de reproduire le plus linéairement possible Exemple : logiciel de synthèse vocale (démonstration) UE503 (IUP.L3) : S. Sidhom
Exemples : bandes passantes UE503 (IUP.L3) : S. Sidhom
Signal sonore • On représente fréquemment de manière simplifiée un signal sonore par une courbe sinusoïdale (ou harmonique en sinus/cosinus) • En fait, une telle sinusoïde ne représenterait qu’un son dit pur défini par une seule fréquence : or, les sons audible ne sont pas purs, ie. complexes et constitués d’une combinaison de fréquences • En effet, à la fréquence fondamentale qui définit la hauteur sonore viennent s’ajouter une série de signaux harmoniques • C’est à J. Fourrier qu’il revient d’avoir démontré mathématiquement au début du XIXe siècle que tout phénomène périodique pouvait être décomposé en une série de sinusoïdes élémentaires dont les fréquences sont des multiples entiers de la fréquence la plus grave, dite fondamentale. • Exemple : Appuyer la touche d’un piano correspondant au La3, nous obtenons un son complexe constitué par l’addition à la fréquence fondamentale (440 Hz) et à des amplitudes variables de fréquences dites harmoniques à des valeurs multiples (x2, x3, …) La Conférence Internationale de Londres en 1953 a fixé la hauteur absolue du La3 à 440 Hz, pour servir de base à l’accord des instruments (musiques ou sonores). UE503 (IUP.L3) : S. Sidhom
Oreille et cerveau humain • Le nombre et l’amplitude des diverses fréquences harmoniques sont spécifiques à chaque source sonore et déterminent le timbre propre de cette source. • Ce sont donc les harmoniques caractéristiques de chaque source qui permettent à l’oreille et au cerveau humains de distinguer et de reconnaître des sources sonores différentes : • Le timbre d’une voix émettant à une fréquence fondamentale de 400 Hz sera perçu comme différent d’une autre voix émettant à la même fréquence. • Le son d’une guitare ne sera pas confondu avec celui d’un piano, même si les deux instruments jouent la même séquence de notes musicales UE503 (IUP.L3) : S. Sidhom
Oreille absolue • L'oreille absolue, par opposition à l'oreille relative, est la faculté pour un homme de pouvoir identifier une note musicale en l’absence de référence. En occident seule 1 personne sur 10 000 en serait dotée. • En psychologie, Alexei Leontiev a émis l'hypothèse, à partir de travaux réalisés auprès de blessés de la seconde guerre mondiale, que l'oreille absolue pouvait s'acquérir en combinant un apprentissage vocal et auditif : l'effort musculaire réalisé par l'appareil phonatoire au moment de la reproduction d'un son est mémorisé et, quand un son est entendu, la personne tente alors de reproduire mentalement l'effort nécessaire pour l'émettre, ce qui lui permet ensuite de dire quelle est sa hauteur. D'après les expériences réalisées, de nombreuses personnes seraient ainsi parvenues à acquérir cette fameuse oreille absolue. • Seule la fréquence d’un diapason est considérée comme une « fréquence absolue » servant de point de départ à tel ou tel type d'accord. Cette fréquence est celle du la3 est de « 440 Hz ». Une octave en acoustique désigne un doublement de fréquence • Cette valeur de 440 Hz a également été retenue pour la tonalité du téléphone. UE503 (IUP.L3) : S. Sidhom
De l’analogie au numérique • Le son est une suite périodique de compressions et de dépressions du milieu dans lequel il se propage (l’air) • Les divers organes de l’oreille externe, moyenne et interne captent ces vibrations périodiques de pression et les transforment en signaux bio-électriques qui sont ensuite transmis au cortex pour y être traités et perçus en tant que son (musique, parole, …) • La représentation analogique du son consiste à passer d’une onde sonore à son image électrique. • La représentation numérique du son nécessitera quant à elle la quantification des échantillons prélevés sur cette image. UE503 (IUP.L3) : S. Sidhom
Onde simple & onde complexe 1. Deux ondes d'amplitudes différentes 2. Deux ondes de fréquences différentes 3. Onde complexe = composition avec des ondes simples UE503 (IUP.L3) : S. Sidhom
Onde sonore UE503 (IUP.L3) : S. Sidhom
amplitude temps Du continu au discret Onde sonore échantillonnage Quantification UE503 (IUP.L3) : S. Sidhom
Exemple 1 : échantillonnage UE503 (IUP.L3) : S. Sidhom
Exemple 2 : fréquences d’ échantillonnage UE503 (IUP.L3) : S. Sidhom
Compression de son • La numérisation du son transforme un signal fragile et caractérisé par une variation continue en un signal numérique très stable fait d’une succession de 0 et 1 : copiable et transportable sans dégradation. • Le signal numérique permet en fin de parcours de reconstituer et de restituer de manière propre l’onde sonore originale • Tout irait donc pour le mieux si les suites de 0 et 1 dont sont constitués les documents sonores numériques n’étaient pas de taille à poser très vite de problèmes de stockage, surtout lorsqu’il s’agit d’enregistrements de haute qualité • Exemple : une durée de 1 minute en qualité son stéréo sur CD-DA, échantillonnage à 44,1 kHz, quantification à 16 bits sur 2 voies, aura un volume : taux d’ échantillonnage x nbr. Bits codage x nbr. Secondes x nbr. voies = 44100 x 16 x 60 x 2 = 84672000 bits/min = ~ 10 M/min UE503 (IUP.L3) : S. Sidhom
Principe de compression de son • Rappelons qu’un algorithme de compression non destructif permet de retrouver, après décompression, l’intégralité du document original : il n’y a pas de perte d’information sur le contenu original. • Le principe général de ce type de compression est fondé sur la recherche des occurrences multiples d’une même suite d’octets. Ces suites étant rassemblées dans un dictionnaire où elles seront représentées par les codes les plus courts possibles. • Les codes dans le dictionnaire remplaceront dans le fichier compressé les longues suites d’octets du fichier original. • Exemple 1 : algorithmes généralistes WinZip, WinRar et WinAce(*.zip, *.rar, *.ace) doivent se satisfaire d’une réduction du volume du fichier d’origine (selon la complexité de la source) de 5 à 35% • Exemple 2 : algorithmes spécifiques WavArc, RKAU, Perfect Clarity Audio(*.wa, *.rka, *.pca) sont spécifiquement dédiés au son et non destructifs, permettent d’atteindre une réduction de volume de 50%. UE503 (IUP.L3) : S. Sidhom
Principaux formats • Parmi la multitude des formats de fichiers audio proposés sur le marché, retenons les plus utilisés : • WAV (Waveform Audio Format): format propriétaire de l’environnement Windows sur PC, il est lu directement par la quasi-totalité des logiciels d’édition ou de composition musicale. • AIF ou AIFF (Audio Interchange File Format) ou SND (SouND): format standard Mac OS et reconnu par les logiciels PC. Il est devenu le 1er format d’échange multi-plateformes. • AU (Audio UNIX): format développé pour UNIX, lu par la quasi-totalité de logiciels professionnels de traitement audio. • RA, RM ou RAM (Real Audio): format propriétaire adapté aux débits limités de l’Internet pour la diffusion de sons ou vidéos en streaming * pour le logiciel RealPLayer. * : Le streaming est un principe utilisé principalement pour l'envoi de contenu en « direct » (ou en léger différé) sur Internet. UE503 (IUP.L3) : S. Sidhom
MOV ou QT (QuickTime): dessiné à l’origine à l’environnement Macintosh, il est aujourd’hui disponible sur PC et peut être utilisé pour réaliser du streaming. • VOC (SoundBlaster): format propriétaire de Creative Labs. • MP3 (MPEG-Layer 3): recommandé par le MPEG, ce format présente l’intérêt majeur d’autoriser un taux de compression important sans altérer notablement la qualité sonore jusqu’à l’ordre 12:1. De nombreux lecteurs permettent la restitution des fichiers *.mp3 : WinAmp, Nad mp3 Player, UnrealPlayer, JetAudio, etc. • MID ou MIDI (Music Instrument Digital Interface): il s’agit d’un format très spécifique puisque le son n’est pas (à proprement parler) numérisé comme dans les autres formats (wav, aif, etc.). La norme MIDI est en fait un protocole matériel et logiciel permettant l’interconnexion et la communication des synthétiseurs, d’échantillonneurs, de séquenceurs, de boîtes à rythmes et bien sûr d’ordinateurs. Un fichier MIDI ne fait donc que piloter la restitution du son grâce à des informations codées conformément à une norme : d’où son très faible poids, mais la qualité de cette restitution est directement liée à celle de la machine qui interprète le fichier son. La norme MIDI a été créée pour normaliser les références aux sonorités des divers instruments de musiques ou autres. UE503 (IUP.L3) : S. Sidhom