Menu English Ukrainian Russe Accueil

Bibliothèque technique gratuite pour les amateurs et les professionnels Bibliothèque technique gratuite


Le développement de systèmes de son surround - du mono au 3D

L'art du son

Annuaire / L'art du son

Commentaires sur l'article Commentaires sur l'article

Actuellement, la stéréophonie à deux canaux est devenue un moyen classique de transmission et de reproduction du son. Le but de la reproduction sonore stéréophonique est de restituer l'image sonore le plus fidèlement possible. La localisation sonore n'est qu'un moyen d'obtenir un son plus riche et plus naturel. Cependant, la transmission d'informations spatiales par les systèmes à deux canaux « classiques » les plus courants présente un certain nombre d'inconvénients, ce qui encourage les concepteurs à créer divers systèmes de son surround.

Un auditeur dans une salle de concert entend non seulement le son direct émanant des instruments individuels de l'orchestre, mais également le son diffus provenant de diverses directions (y compris de l'arrière) réfléchi par les murs et le plafond de la pièce, ce qui crée un effet d'espace et complète l'impression générale de l'image. Le délai avec lequel le son diffus atteint les oreilles de l'auditeur et sa composition spectrale dépendent de la taille et des propriétés acoustiques de la pièce. Avec une transmission à deux canaux, les informations créées par le son diffus sont en grande partie perdues et, dans le cas d'un enregistrement en studio, elles peuvent ne pas être présentes au départ.

L’oreille humaine localise mieux les sources sonores dans le plan horizontal. Dans le même temps, les sons venant de l'arrière, en l'absence d'informations supplémentaires, sont moins bien localisés. La vision, y compris la vision périphérique, est le sens principal pour déterminer l'emplacement des objets. Par conséquent, sans informations visuelles, la capacité d'évaluer la position d'un son dans le plan vertical et sa distance par rapport à nous est faible et assez individuelle. Cela peut s’expliquer en partie par les caractéristiques anatomiques individuelles des oreilles. Lors de la lecture d'enregistrements, il n'y a aucune information visuelle, donc toute technologie sonore destinée au marché de masse qui prétend fournir un « son surround » est obligée de créer quelque chose de moyen et évidemment un compromis.

Diverses méthodes peuvent être utilisées pour reproduire ou synthétiser « l’effet Hall ». Au milieu des années 50, Philips, Grundig et Telefunken ont testé les systèmes de reproduction tridimensionnelle 3D et Raumton. La transmission du son était monophonique, mais des haut-parleurs supplémentaires (généralement intégrés, moins souvent externes), rayonnant le son latéralement ou vers le haut, créaient l'impression d'un grand espace en raison du son réfléchi par les murs et le plafond. Étant donné que le retard d'écho dans les locaux domestiques est assez faible, des réverbérations à ressort ont ensuite été utilisées pour l'augmenter dans le canal d'amplification de signaux supplémentaires. En raison de la complexité technique importante de l'époque, ces systèmes n'ont pas duré longtemps sur le marché et ont rapidement disparu de la scène.

Par la suite, des systèmes ambiophoniques ont été développés pour transmettre le son diffus, qui ont trouvé des applications principalement au cinéma. Le ou les canaux supplémentaires pour transmettre le son diffus dans de tels systèmes ont moins de puissance que les principaux et leur gamme de fréquences correspond à la bande de fréquences du signal diffus (environ 300...5000 Hz). Le rayonnement des enceintes supplémentaires doit être diffus, pour cela ils sont dirigés vers les murs ou le plafond de la salle d'écoute.

Le développement de systèmes de son surround - du mono au 3D

La complexité de la normalisation et les problèmes techniques liés à l'enregistrement et à la transmission de signaux à trois, quatre canaux ou plus ont conduit au fait que la stéréophonie à deux canaux est devenue le principal système d'enregistrement et de transmission du son pendant de nombreuses années. Mais les tentatives visant à créer des systèmes de son surround ne se sont pas arrêtées. Le développement de l'ambiophonie a été la quadriphonie (reproduction sonore à quatre canaux), dont le pic de popularité s'est produit dans la première moitié des années 70. Contrairement au système ambiophonique, ici tous les canaux de reproduction sonore sont équipés de la même manière. La quadriphonie discrète (complète), qui procure l'effet maximal de présence, nécessite quatre canaux de transmission sonore et, de ce fait, s'est avérée incompatible avec les moyens techniques d'enregistrement et de diffusion sonore qui existaient à cette époque.

Le développement de systèmes de son surround - du mono au 3D

Pour surmonter cet obstacle, plusieurs systèmes de quadriphonie matricielle ont été créés (dans la terminologie de l'époque - quasi-quadraphonie), dans lesquels les signaux originaux de quatre canaux étaient matricés pour une transmission sur deux canaux, et pendant la lecture, les signaux originaux étaient restaurés par transformations somme-différence, et il était possible de reproduire sans décodeur un signal stéréo normal. Puisqu'aucun de ces systèmes n'était entièrement quadriphonique, ni entièrement compatible avec la stéréophonie à deux canaux en raison de la forte pénétration du signal d'un canal à l'autre, leur utilisation pratique était limitée et leur intérêt s'est rapidement estompé.

Le développement de systèmes de son surround - du mono au 3D

Il n’y a pas eu de vainqueur dans la « guerre des standards » des systèmes quadriphoniques ; l’idée est morte heureusement, les principes ont été oubliés, mais le terme est resté. Par conséquent, peu de gens sont désormais confus par le fait que « quelque chose » doté de quatre canaux d'amplification et de quatre haut-parleurs est fièrement appelé « système quadriphonique ». Cependant, c'est fondamentalement faux, car la source de signal reste à deux canaux et les signaux des canaux avant et arrière avec cette conception de système ne diffèrent les uns des autres qu'en niveau, c'est-à-dire que le principe de panoramique est utilisé.

Le panoramique dans la production d'enregistrements stéréo est largement utilisé depuis le milieu des années 50 pour positionner les signaux audio monophoniques « gauche/droite/milieu » du champ sonore. Le panoramique n'a aucun effet sur la fréquence ou la phase du signal ; il modifie uniquement le niveau du signal mono fourni à chacun des canaux stéréo. Le panoramique sur plusieurs canaux (dans le cas d'enregistrements multicanaux) s'effectue de la même manière. Cependant, pour déterminer la direction vers une source sonore, notre aide auditive utilise non seulement la différence d'intensité des signaux sonores, mais également le déphasage entre eux, et l'effet du déphasage sur la précision de localisation de la source sonore est le plus prononcé dans la gamme de fréquences d'environ 500 à 3000 XNUMX Hz. (Encore une fois, la gamme de fréquences du son diffus !).

Par conséquent, un simple panoramique ne fournit pas la fidélité sonore requise. Les effets stéréo (« son de course », liaison sonore « gauche-droite », etc.) des premiers enregistrements stéréo sont vite devenus ennuyeux. Ainsi, les meilleurs enregistrements d'instruments électroniques en studio dans les années 60 ont été réalisés à l'aide de la technologie des microphones, ce qui explique le caractère « live » du son : L'introduction de l'enregistrement multicanal entièrement électronique (sans utilisation de microphones) d'instruments avec le mixage ultérieur, tout en facilitant le travail de l'ingénieur du son, détruisait en même temps l'atmosphère de la salle. Par la suite, ce fait a commencé à être pris en compte lors des enregistrements en studio, même s'il n'y a pas eu de retour complet à la technologie des microphones.

Lors de l'utilisation d'un schéma de lecture à deux canaux, la zone principale de localisation effective des sources sonores apparentes (ASS) est située devant l'auditeur et couvre un espace d'environ 180 degrés dans le plan horizontal. Les deux canaux avant ne peuvent pas reproduire correctement les sons dont les sources sont réellement situées derrière et dans le plan vertical, à moins d'être soutenus par des signaux supplémentaires. L’utilisation d’enceintes arrière en combinaison avec le panoramique sonore fonctionne bien avec des sources sonores situées devant et derrière l’auditeur et moins bien avec un emplacement latéral. Cependant, le panoramique sonore à lui seul ne peut jamais fournir un positionnement acceptable des sources sonores dans le plan vertical.

Lors du développement des systèmes matriciels, il s'est avéré qu'une partie importante de l'information spatiale est contenue dans le signal de différence (signal d'information stéréo), qui peut être fourni aux haut-parleurs des canaux arrière soit sous forme pure, soit mélangé avec un certain proportion de signaux frontaux. Dans le cas le plus simple, cela ne nécessite même pas de canaux d'amplification supplémentaires, et les signaux peuvent être matricisés à la sortie de l'amplificateur :

Le développement de systèmes de son surround - du mono au 3D

C’est ainsi que sont nés plusieurs systèmes pseudo-quadraphoniques, évinçant complètement les « vrais Aryens » du marché au milieu des années 70. Ils ne différaient les uns des autres que par la manière d'obtenir le signal de différence. Cependant, leur triomphe fut également de courte durée, ce qui s'expliquait par les défauts du support de signal - disque vinyle et bande magnétique. Le bruit non corrélé des canaux gauche et droit n'a pas été soustrait, ce qui, combiné au niveau relativement faible du signal de différence, a considérablement détérioré le rapport signal/bruit dans les canaux arrière.

Un autre inconvénient non moins important de tels systèmes est le manque de dépendance du niveau du signal arrière sur la nature du phonogramme. A faible niveau du signal arrière, l'effet spatial est peu perceptible ; lorsque le niveau augmente, une cassure de la scène sonore apparaît et ses fragments reculent (effet « d'entourer un orchestre », ce qui ne correspond pas à la réalité) .

Lors de la lecture d'enregistrements « live » (qui présentent une répartition naturelle des composantes totales, de différence et de phase), cet inconvénient s'est manifesté de manière insignifiante, mais sur la plupart des phonogrammes de studio, les canaux arrière ont introduit des erreurs significatives dans la position de l'IZ. Pour surmonter cette lacune, les premiers systèmes de son surround ont essayé d'utiliser le panoramique automatique. Les signaux de contrôle ont été obtenus à partir du niveau d'information spatiale - une augmentation du niveau des signaux de différence a entraîné une augmentation du gain dans les canaux arrière. Cependant, le modèle de panoramique adopté était très approximatif, de sorte que des erreurs de contrôle de l'expanseur entraînaient des changements chaotiques dans le niveau des signaux arrière (l'effet de « respiration lourde »).

L'intérêt pour les systèmes de son surround a réapparu avec l'avènement des médias numériques, dont le niveau de bruit intrinsèque est négligeable et même le traitement du signal analogique ne dégradera pratiquement pas la plage dynamique du système. Le développement des méthodes de traitement numérique du signal a conduit à la création de processeurs de son numériques (Digital Sound Processor - DSP).

Développés à l'origine pour les systèmes de cinéma maison, les processeurs de son surround ont récemment commencé à être activement utilisés dans les systèmes audio automobiles. Leur utilisation peut améliorer considérablement le son à l'intérieur d'une voiture, c'est pourquoi ils sont produits non seulement en tant que dispositifs DSP séparés, mais sont également inclus dans des radios relativement bon marché. Les paramètres du processeur vous permettent de sélectionner les paramètres les plus optimaux pour le lieu d'écoute sélectionné.

Il existe un certain nombre de méthodes permettant à un équipement de reproduire un son localisé dans l'espace avec un nombre limité de systèmes acoustiques. Les différentes méthodes de mise en œuvre présentent des forces et des faiblesses. Il est donc important de comprendre les différences fondamentales entre les principales méthodes de traitement du signal. Les systèmes de son surround modernes (Dolby Surround, Dolby Pro-Logic, Q-Sound, Curcle Surround et autres) sont basés sur la même idée de conversion somme-différence, complétée par des méthodes de traitement du signal « propriétaires » (à la fois analogiques et numériques) . Ils sont souvent réunis sous le nom commun de « systèmes 3D » (« renaissance » d'un terme vieux de quarante ans !).

Avant d'examiner les principes impliqués dans le traitement des signaux audio dans les systèmes de son surround, considérons le processus d'enregistrement typique. Tout d'abord, un enregistrement est réalisé comportant de nombreux canaux individuels - instruments, voix, effets sonores, etc. Pendant le mixage, le niveau de volume et l'emplacement de la source sonore sont contrôlés pour chaque piste audio afin d'obtenir le résultat souhaité. Dans le cas d'un enregistrement stéréo, le résultat du mixage est deux canaux ; pour les systèmes surround, le nombre de canaux est plus grand (par exemple, 6 canaux pour le format « 5.1 » Dolby Digital/AC-3). Dans les deux cas, chaque canal est constitué de signaux conçus pour être envoyés à des haut-parleurs individuels lorsque l'utilisateur écoute. Chacun de ces signaux est le résultat d’un mélange complexe des signaux sources originaux.

Ensuite, le processus de codage des canaux obtenus après le mélange a lieu et le résultat est un flux numérique (bitstream). Pendant la lecture, le décodeur traite le flux numérique, le divise en canaux individuels et les transmet pour lecture aux systèmes de haut-parleurs. Pour les systèmes de son surround multicanaux (discrets), un mode de simulation de systèmes de haut-parleurs réellement absents (mode Phantom) est possible. Si vous ne disposez que de deux haut-parleurs, les canaux du subwoofer (basse fréquence) et du centre (dialogue) sont simplement ajoutés simultanément aux deux canaux de sortie. Le canal arrière gauche est ajouté au canal de sortie gauche, l'arrière droit au canal de sortie droit.

N'oubliez pas que le panoramique n'affecte que l'amplitude du signal audio. La conversion audio dans les systèmes 3D modernes inclut des informations supplémentaires sur l'amplitude et la différence de phase/latence entre les canaux de sortie dans le flux audio. Généralement, la quantité de traitement dépend de la fréquence du signal, bien que certains effets soient créés à l'aide de simples délais.

Quelles méthodes sont utilisées pour traiter un signal audio ? Tout d'abord, il s'agit d'une expansion stéréo (Stereo Expansion), qui est produite en influençant la différence signal stéréo des canaux avant. Cette méthode peut être considérée comme classique et s’applique principalement aux enregistrements stéréo conventionnels.

Le traitement du signal peut être analogique ou numérique. Deuxièmement, l'audio 3D positionnel (audio 3D localisé). Cette méthode fonctionne sur de nombreux canaux audio individuels et tente de localiser individuellement chaque signal dans l'espace. Troisièmement, Virtual Surround est une méthode de lecture d'un enregistrement multicanal utilisant un nombre limité de sources sonores, par exemple la lecture d'un son à cinq canaux sur deux haut-parleurs acoustiques. Evidemment, les deux dernières méthodes ne sont applicables qu'aux supports audio multicanaux (enregistrements au format DVD, format AC-3), ce qui n'est pas encore très pertinent pour les systèmes automobiles.

La liste est complétée par diverses méthodes de réverbération artificielle. Lorsque le son voyage dans l’espace, il peut être réfléchi ou absorbé par divers objets. Les sons réfléchis dans un grand espace peuvent en réalité créer un écho clairement perceptible, mais dans un espace limité, de nombreux sons réfléchis se combinent de sorte que nous les entendons comme une seule séquence qui suit le son d'origine et l'atténue, et le degré d'atténuation varie selon les différents sons. fréquences et dépend directement des propriétés de l’espace environnant.

Les processeurs de son numériques utilisent un modèle de réverbération généralisé, qui réduit le contrôle du processus de réverbération à la définition de paramètres clés (temps de retard, nombre de réflexions, taux de décroissance, modification de la composition spectrale des signaux réfléchis). C'est ainsi que sont mis en œuvre les modes salle, live, stade, etc. L'imitation s'avère assez réaliste. Les processeurs analogiques utilisent des lignes à retard de signal à cet effet. Dans ce cas, le contrôle des paramètres de réverbération est beaucoup plus complexe, il n'y a donc généralement qu'un seul mode de fonctionnement fixe.

Bien sûr, il est difficile de décrire les caractéristiques structurelles de tous les systèmes de son surround existants, mais leur travail est basé sur les principes discutés - la différence réside uniquement dans les détails des algorithmes et l'ensemble des modes (préréglages). Par conséquent, le meilleur conseiller lors du choix d’un processeur de son est votre propre audition.

Publication : www.bluesmobil.com/shikhman

 Nous recommandons des articles intéressants section L'art du son:

▪ Commandes de volume fortement compensées

▪ Nouvelle lettre dans l'alphabet

▪ Tests et objectivité

Voir d'autres articles section L'art du son.

Lire et écrire utile commentaires sur cet article.

<< Retour

Dernières nouvelles de la science et de la technologie, nouvelle électronique :

Machine pour éclaircir les fleurs dans les jardins 02.05.2024

Dans l'agriculture moderne, les progrès technologiques se développent visant à accroître l'efficacité des processus d'entretien des plantes. La machine innovante d'éclaircissage des fleurs Florix a été présentée en Italie, conçue pour optimiser la phase de récolte. Cet outil est équipé de bras mobiles, lui permettant de s'adapter facilement aux besoins du jardin. L'opérateur peut régler la vitesse des fils fins en les contrôlant depuis la cabine du tracteur à l'aide d'un joystick. Cette approche augmente considérablement l'efficacité du processus d'éclaircissage des fleurs, offrant la possibilité d'un ajustement individuel aux conditions spécifiques du jardin, ainsi qu'à la variété et au type de fruits qui y sont cultivés. Après avoir testé la machine Florix pendant deux ans sur différents types de fruits, les résultats ont été très encourageants. Des agriculteurs comme Filiberto Montanari, qui utilise une machine Florix depuis plusieurs années, ont signalé une réduction significative du temps et du travail nécessaires pour éclaircir les fleurs. ...>>

Microscope infrarouge avancé 02.05.2024

Les microscopes jouent un rôle important dans la recherche scientifique, car ils permettent aux scientifiques d’explorer des structures et des processus invisibles à l’œil nu. Cependant, diverses méthodes de microscopie ont leurs limites, parmi lesquelles la limitation de la résolution lors de l’utilisation de la gamme infrarouge. Mais les dernières réalisations des chercheurs japonais de l'Université de Tokyo ouvrent de nouvelles perspectives pour l'étude du micromonde. Des scientifiques de l'Université de Tokyo ont dévoilé un nouveau microscope qui va révolutionner les capacités de la microscopie infrarouge. Cet instrument avancé vous permet de voir les structures internes des bactéries vivantes avec une clarté étonnante à l’échelle nanométrique. En général, les microscopes à infrarouge moyen sont limités par leur faible résolution, mais le dernier développement des chercheurs japonais surmonte ces limitations. Selon les scientifiques, le microscope développé permet de créer des images avec une résolution allant jusqu'à 120 nanomètres, soit 30 fois supérieure à la résolution des microscopes traditionnels. ...>>

Piège à air pour insectes 01.05.2024

L'agriculture est l'un des secteurs clés de l'économie et la lutte antiparasitaire fait partie intégrante de ce processus. Une équipe de scientifiques du Conseil indien de recherche agricole et de l'Institut central de recherche sur la pomme de terre (ICAR-CPRI), à Shimla, a mis au point une solution innovante à ce problème : un piège à air pour insectes alimenté par le vent. Cet appareil comble les lacunes des méthodes traditionnelles de lutte antiparasitaire en fournissant des données en temps réel sur la population d'insectes. Le piège est entièrement alimenté par l’énergie éolienne, ce qui en fait une solution respectueuse de l’environnement qui ne nécessite aucune énergie. Sa conception unique permet la surveillance des insectes nuisibles et utiles, fournissant ainsi un aperçu complet de la population dans n'importe quelle zone agricole. "En évaluant les ravageurs cibles au bon moment, nous pouvons prendre les mesures nécessaires pour lutter à la fois contre les ravageurs et les maladies", explique Kapil. ...>>

Nouvelles aléatoires de l'Archive

Google a présenté sa propre tablette 02.07.2012

Dans le cadre de l'ouverture de la conférence Google I/O à San Francisco, Google a, comme prévu, présenté sa première tablette de marque. L'appareil s'appelle Nexus 7. La première tablette de marque Google - Nexus 7 avec un écran de 7 pouces - sera commercialisée dans plusieurs pays à la mi-juillet. Il en coûtera 199 $ pour le modèle 8 Go et 249 $ pour le modèle 16 Go.

La tablette est équipée d'un écran IPS de 7 pouces avec une résolution de 1280 x 800 pixels (216 ppi), recouvert de verre Corning, d'un processeur Nvidia Tegra 4 à 3 cœurs (avec un contrôleur graphique GeForce à 12 cœurs), de 1 Go de RAM, une caméra frontale sur 1,2 MP, prise en charge du Wi-Fi 802.11 b/g/n, Bluetooth et NFC, connecteur Micro USB, microphone, accéléromètre, boussole électronique, gyroscope et module GPS. La prise en charge de la 3G ou de la 4G n'est pas fournie.

L'appareil est basé sur la plate-forme Android 4.1, nom de code Jelly Bean. Le poids de la tablette est de 340 g, dimensions hors tout - 198,5 x 120 x 10,45 mm. Capacité de la batterie - 4325 mAh, qui fournit, selon les informations fournies, jusqu'à 9 heures de lecture vidéo HD ou jusqu'à 300 heures en veille.

Selon Google, la tablette Nexus 7 a été conçue pour fonctionner avec le magasin de contenu Google Play, qui, en plus de 600 XNUMX applications et jeux, comprend actuellement des millions de livres électroniques et de chansons et des milliers de films et d'émissions de télévision. Désormais, les films peuvent non seulement être loués, mais aussi achetés, a ajouté la société.

La tablette sera livrée avec les applications Gmail, Chrome, Google+ et YouTube préinstallées. La synchronisation automatique entre la tablette, le smartphone et l'ordinateur personnel sera prise en charge. Chrome sera le navigateur par défaut sur le Nexus 7, note SlashGear. La prise en charge d'Adobe Flash n'est pas fournie.

Autres nouvelles intéressantes :

▪ Le nouveau rôle de l'ADN

▪ Découverte du minéral le plus répandu sur Terre dans l'espace

▪ Les voitures Ford apprendront à suivre les parkings gratuits

▪ Yeux bleus : secrets d'un ancêtre commun

▪ Ionistor graphène spacieux et durable

Fil d'actualité de la science et de la technologie, nouvelle électronique

 

Matériaux intéressants de la bibliothèque technique gratuite :

▪ section du site Électricité pour débutants. Sélection d'articles

▪ Article Comportement du consommateur. Lit de bébé

▪ article Pourquoi les baleines grises s'accouplent-elles par groupes de trois ? Réponse détaillée

▪ Noeud de chêne. Astuces de voyage

▪ article Simplification de l'indicateur de tension. Encyclopédie de l'électronique radio et de l'électrotechnique

▪ article Alimentation sur puce TDA4605, 220/12 volts 4 ampères. Encyclopédie de l'électronique radio et de l'électrotechnique

Laissez votre commentaire sur cet article :

Nom:


E-mail (facultatif) :


commenter:





Toutes les langues de cette page

Page principale | bibliothèque | Articles | Plan du site | Avis sur le site

www.diagramme.com.ua

www.diagramme.com.ua
2000-2024