Format binaire pour les scènes – Wikipedia

Format binaire pour scènes ( Bifs ) est un langage de description basé sur VRML97 et dans MPEG-4 Part 11 (ISO / IEC 14496-11, “Scene Description and Application Engine”) Pour le contenu audiovisuel multimédia à deux et trois dimensions. Il est codé binaire.

Contenu interactif, concept de scène et codage d’objets [ Modifier | Modifier le texte source ]]

MPEG-1 et MPEG-2 étaient toujours des normes pour coder uniquement les données audio et vidéo, MPEG-4 était un outil de codage et de transmission de (pas nécessairement) dès le début) Contenu audiovisuel interactif prévu. Si MPEG-4 est mentionné dans les éléments suivants, l’aspect description de la scène est toujours signifié, c’est-à-dire H. Le contenu audiovisuel est décrit comme une scène dite, qui peut être constituée de séquences naturelles (par exemple vidéo ou de pistes audio enregistrées) et d’objets synthétiques (par exemple les graphiques 2D et 3D). De plus, le concept de codage basé sur des objets est utilisé pour la première fois dans MPEG-4, dans lequel les objets individuels d’une scène (par exemple, l’arrière-plan, acteur, objets 3D et 2D, langue, musique de fond, etc.) séparé être encodé et transféré. La scène est ensuite réunie à nouveau lorsque vous jouez.

Les avantages du codage et de la transmission basés sur l’objet:

  • Il permet une transmission ou un stockage efficaces du contenu multimédia.
Par exemple, il suffit de transférer l’arrière-plan de la scène une fois comme une image (tant que la caméra n’est pas déplacée).
  • Un codec approprié de l’une des normes MPEG peut être utilisé pour chaque objet (par exemple, code de langue, codec d’image, codec vidéo, etc.).
  • Les objets individuels peuvent être facilement réutilisés lors de la production d’autres scènes.
  • La scène peut être adaptée à ses compétences dans le dispositif de lecture.
  • Le contenu interactif est possible.
Le spectateur peut être restreint ou déplacé librement dans des scènes à trois dimensions. De plus, les actions (par exemple, le démarrage d’un clip vidéo et / ou audio, le transfert vers une boutique en ligne dans laquelle vous pouvez recevoir l’article en question, etc.) sont concevables lorsque vous cliquez sur un objet dans la scène.

La terminologie a été repris par VRML. Les scènes BIFS ont un graphique de scène, une structure de données hiérarchique, dont les éléments individuels nœud d’être nommé. Les propriétés des nœuds sont en Des champs décrit. Les types de données et les zones de valeur sont définis pour les champs.

Il existe les deux nœuds pour les objets visibles (par exemple des rectangles, cylindre) ainsi que pour définir leurs propriétés telles que la couleur, la texture ou la position. Il existe également des nœuds pour positionner les sources sonores dans la scène et pour le traitement du signal audio (voir ci-dessous Audio ).

Afin d’intégrer de manière transparente les acteurs dans une scène, la norme vidéo MPEG 4 (ISO / IEC 14496-2) permet le codage de soi-disant pour la première fois. Objets vidéo en forme . Avec le contenu d’image réel, un masque binaire ou en niveaux de gris est codé dans le courant de données vidéo, de sorte que lorsque la scène est assemblée, l’arrière-plan est visible lorsqu’il n’y a pas d’acteur. La technologie de l’écran bleu est utilisée pour produire de tels objets vidéo. Les objets vidéo en forme sont intégrés dans la scène BIFS sous forme de textures.

Afin de pouvoir intégrer des objets tridimensionnels (par exemple, des objets modélisés dans des programmes 3D) dans la scène, BIFS fait référence à la norme VRML entière, de sorte que toutes les options qui sont données avec VRML peuvent également être utilisées dans des scènes BIFS.

MPEG-J définit une interface Java qui permet d’accéder aux objets de la scène. Cela permet des applications interactives complètes (par exemple le guide de voyage) avec Java et MPEG-4. Le bytecode de l’application (on parle également de “mpeglet”) est transféré ou enregistré avec la scène.

Avec Audio est appelé la partie de BIFS, qui permet un traitement complet du signal audio. Il est possible de positionner les sources sonores dans un espace virtuel, d’appliquer des effets sur les données audio ou de décrire les pièces acoustiquement. Pour décrire les effets à utiliser, il y a un langage à part dans l’audio MPEG-4 Vie ( langue d’orchestre audio structuré ) Standardisé, avec l’aide de laquelle toutes les opérations de traitement du signal imaginables peuvent être décrites. Pour la simulation réaliste des environnements acoustiques, les objets de la scène peuvent être fournis avec des propriétés acoustiques (transmission et réflexion dépendantes de la fréquence), de sorte que celles-ci peuvent être prises en compte dans la lecture (acoustique virtuelle).