Article 392

  • Titre : De la mesure de similarité de codes sources vers la détection de plagiat : le Pomp-O-Mètre
  • Romain Brixtel (Université de Caen - Basse Normandie)
  • Cyril Bazin (Université de Caen - Basse Normandie)
  • Boris Lesner (Université de Caen - Basse Normandie)
  • Guillaume Bagan (Université de Caen - Basse Normandie)
  • Résumé : L'objectif de notre travail est la détection de documents plagiés au sein d'un corpus. L'application pratique première est de découvrir, parmi les devoirs de programmation rendus par une classe d'étudiants en informatique, lesquels ont été copiés. Notre approche utilise un ensemble de méthodes de segmentation des documents ainsi que différentes distances entre les segments obtenus. Elle est endogène et sans à priori sur les langages de programmation traités. De plus, elle effectue la synthèse des résultats pour aider le correcteur à prendre les bonnes décisions. Cet article commence par présenter le cadre travail et nos hypothèses. Nous donnons ensuite le fonctionnement de chaque étape de la chaîne de traitement. Enfin, nous montrons expérimentalement comment, dans différents corpus issus d'étudiants, notre application - le Pomp-O-Mètre - permet le dépistage de plagiat.
  • Voir l'article entier

Article 402

  • Titre : Nouveaux résultats en cryptographie basée sur les codes correcteurs d’erreurs
  • Pierre-Louis Carel (Université de Paris 8)
  • Résumé : Dans cet article, on s’intéresse à l’étude de systèmes de chiffrement ainsi que de schémas de signature dont la sécurité repose sur des problèmes difficiles de théorie des codes correcteurs d’erreurs. Ces activités de recherche ont été motivées, d’une part d’un point de vue théorique par la création de nouveaux schémas de signature avec des propriétés spéciales ainsi que d’une manière de réduire la taille de clés du schéma de McEliece, et d’autre part, d’un point de vue pratique visant à utiliser des propriétés structurelles afin d’obtenir des implémentations effectives d’un schéma de signature fondé sur les codes correcteurs d’erreurs. Comme l’indique son titre, cet article traite de la construction de cryptosystèmes basés sur des codes correcteurs d’erreurs et plus particulièrement de cinq nouveaux protocoles. On présente ici une version sécurisée du schéma de Stern dans un environnement à faibles ressources, une nouvelle construction du schéma de Kabatianski,Krouk et Smeets, un schéma de signature basé sur l’identité prouvé sûr dans le modèle de l’oracle aléatoire, un schéma de signature de cercle à seuil et enfin une réduction de la taille de clés du schéma de McEliece à l’aide de codes alternants quasi-cycliques.
  • Voir l'article entier

Article 472

  • Titre : Vérification déductive de programmes flottants dans Frama-C
  • Ali Ayad (CEA LIST)
  • Résumé : Frama-C est une plateforme de vérification formelle de programmes C développée entre le CEA List de Saclay et l’équipe ProVal de l’INRIA-Île-de-France. Frama-C est composée de plugins qui sont destinés à faire de tâches spécifiques d’analyse statique. Parmi ces plugins, on trouve l’outil Jessie de vérification déductive de programmes : on annote un programme C en utilisant le langage de spécification ACSL avec les propriétés formelles que doivent vérifier les variables du programme. Le programme annoté est traduit par Jessie en un programme Why, qui est un outil de génération de conditions de vérification developpé dans ProVal. Les obligations de preuve (i.e., formules logiques du premier ordre) générées par Why sont passées à de prouveurs automatiques comme Gappa, Alt-Ergo, Simplify, Yices, Z3, CVC3, etc. ou à de prouveurs interactifs comme Coq, PVS, Isabelle/HOL, etc. afin de montrer les propriétés spécifiées et ainsi de valider et certifier le bon fonctionnement du programme C. Dans ce papier, on étend le langage ACSL pour spécifier de programmes C traitant de calculs flottants. On présente un modèle formel de spécification des opérations flottantes en respectant la norme IEEE-754, ce qui permet de certifier un grand nombre de programmes C qui implémentent cette norme.
  • Voir l'article entier

Article 492

  • Titre : Carte à puce, vers une durée de vie infinie
  • Agnes Cristèle Noubissi (Université de Limoges, Laboratoire XLIM, Equipe SSD)
  • Julien Iguchi-Cartigny (Université de Limoges, Laboratoire XLIM, Equipe SSD)
  • Jean-Louis Lanet (Université de Limoges, Laboratoire XLIM, Equipe SSD)
  • Résumé : Nous présentons dans cet article nos travaux de recherche concernant la mise à jour dynamique d'applications pour la Java Card 3.0 connected edition. Par dynamique, nous entendons le fait de patcher des classes de l'application en cours d'exécution sans arrêter ni la la machine virtuelle Java Card, ni l'application elle même. De plus, cette opération doit se dérouler de manière transparente pour les autres applications de la carte. Nous montrons que cette approche nécessite l'ajout de plusieurs mécanismes off-card et on-card afin de pouvoir garantir la fiabilité et la sécurité de l'opération (atomicité de la mise à jour, cohérence du système de type, etc...). Nous présentons une architecture pour étendre le Card Manager de la carte afin de pouvoir intégrer la processus de mise à jour dynamique dans le cycle de vie d'un module d'application.
  • Voir l'article entier

Article 512

  • Titre : Un modèle bi-niveau pour le problème de la recherche d’une cible dynamique
  • Carlos Diego Rodrigues (Université d'Avignon et des Pays de Vaucluse)
  • Dominique Quadri (Université d'Avignon et des Pays de Vaucluse)
  • Philippe Michelon (Université d'Avignon et des Pays de Vaucluse)
  • Résumé : Nous présentons un modèle pour le problème de la détection d’une cible intelligente au moyen de capteurs dont le nombre est limité. Dans la littérature, ce problème se situe dans le domaine de la théorie de la recherche et plusieurs modèles ont été proposés. Toutefois, la modélisation présentée est originale et répond à deux difficultés majeures dans le domaine : il s’agit d’un modèle globale utilisant un nombre polynomial de variables et de contraintes.
  • Voir l'article entier

Article 522

  • Titre : Authentification HTTP Digest SIP renforcée
  • Thomas Guillet (TELECOM ParisTech)
  • Ahmed Serhrouchni (TELECOM ParisTech)
  • Résumé : Le réseau Internet devient d’une manière certaine le réseau de transport de tout type de média. La téléphonie n’échappe pas à cette tendance, ce service migre donc progressivement vers ce réseau. Mais comme le « Web » ou la messagerie, la téléphonie sur Internet n’échappe pas aux problèmes de sécurité. Plusieurs travaux ont établis cette problématique auquel s’ajoute celle des failles traditionnelles des réseaux ouverts basés sur le protocole IP. L’enjeu est donc de préserver la confiance des usagers pour un service aussi emblématique que le téléphone. Le protocole qui semble le plus émergé est le standard de l’IETF SIP. Ce dernier spécifie la signalisation pour l’établissement d’un appel et les modalités pour le transport de la voix. Une large communauté a contribué à sécuriser l’environnement SIP, principalement en rajoutant de nouveaux paramètres ou en préconisant l’utilisation de protocole sécurisé pour le transport des messages SIP ou de la voix. Ces propositions ont un coût en temps de calcul, en bande passante et ne sont pas toujours interopérables avec les implémentations existantes. Notre étude a donc recherché les opportunités de renforcer la sécurité, en particulier l’authentification, sans modifier les échanges SIP et en garantissant une totale interopérabilité avec les infrastructures existantes. Ce cahier des charges nous a permis de proposer une solution validée formellement par l’outil AVISPA et sur une plate-forme logicielle basée sur le logiciel libre ASTERISK.
  • Voir l'article entier

Article 532

  • Titre : Modélisation en dynamique des populations, interêt de l'approche Multi-agents
  • Toufik Laroum (Université 20 Aout 1955 Skikda, Algérie)
  • Bornia Tiguiouart (Université de Anna, Algérie)
  • Résumé : Le domaine de la dynamique des populations concerne l’étude des changements des paramètres qui définissent la structure d’une population donnée ou d’un ensemble de populations. La complexité des phénomènes étudiés nécessite de faire recours à la modélisation et à la simulation. Les premiers modèles élaborés dans ce domaine reviennent à la fin du 18 ème siècle. Pendant une longue période, tous les travaux ont été fondés sur des modèles mathématiques. Récemment et suite à certaines limites de cette approche, on remarque que l’approche Multi-agents a commencé à être de plus en plus utilisée. Nous allons dans cette étude montrer l’efficacité de l’approche Multi-agents (par rapport à l'aproche mathématique) pour modéliser la dynamique des populations. L’application concerne l’évolution d’un peuplement de cellules constitué des cellules du système immunitaire et le virus de l’immunodéficience humaine suite à l’infection de l’organisme par ce dernier. Nous avons travaillé sur le modèle 3D qui concerne la dynamique de trois catégories de cellules qui sont : les lymphocytes CD4, les cellules CD4 infectées et le virus VIH. L’objectif consiste à construire un système Multi-agents permettant de simuler l’évolution du phénomène de l’infection par le VIH pendant ses deux première phases (la primo-infection et la phase asymptomatique). Autrement dit, montrer qu’un système Multi-agents permet de reproduire l’évolution de l’infection conformément à ce qui est connu en biologie. Un tel modèle, une fois complété va aider à prédire le phénomène de l’infection et donc à mieux diriger le traitement en évitant de faire des expérimentations directes sur le patient avec toutes ses conséquences.
  • Voir l'article entier

Article 572

  • Titre : Planification d’itinéraires en transport multimodal
  • Fallou Gueye (LAAS)
  • Christian Artigues (LAAS)
  • Marie José Huguet (LAAS)
  • Résumé : Dans cet article nous nous intéressons à des problèmes de recherche d’itinéraires dans des réseaux de transport multimodaux (transport en commun, véhicule personnel, marche, vélo, etc.). La multimodalité d’un réseau de transport introduit des contraintes spécifiques : temps de trajet dépendant des horaires, restrictions pour l’utilisation de certains modes ou sur certaines séquences de modes. Le problème particulier de notre étude est celui de la recherche d’itinéraires entre une origine et une destination minimisant à la fois les temps de trajet et le nombre de changements de modes de transport. Nous comparons deux algorithmes pour résoudre ce problème en nous appuyant sur un réseau de transport multimodal issu d’un cas réel.
  • Voir l'article entier

Article 592

  • Titre : Δ-TSR : une approche de description des relations spatiales entre objets pour la recherche d’images
  • Nguyen Vu Hoang (Université Paris-Dauphine)
  • Maude Manouvrier (Université Paris-Dauphine)
  • Valérie Gouet-Brunet (CNAM )
  • Rukoz Marta (Université Paris-Dauphine)
  • Résumé : Cet article présente une nouvelle approche, Δ-TSR, pour la recherche par similarité dans les bases d’images, où les images sont décrites par les relations spatiales entre leurs objets. Cette approche paramétrable offre différentes descriptions d’image basées sur les co-occurences de triplets d’objets dont les relations géométriques sont codées en utilisant les angles du triangle formé par les objets. Une description semi-locale est également proposée, tenant compte du voisinage des objets, afin d’être robuste aux changements de point de vue. Toutes ces descriptions sont invariantes à la rotation en 2D, à la translation ou au changement d’échelle de l’image. Δ-TSR peut être appliquée aussi bien aux images symboliques (où les objets sont représentés par des étiquettes ou des icônes), qu’aux images représentées par des régions saillantes (par exemple les points d’intérêt représentant les zones de forte variabilité dans l’image). L’approche a été expérimentée avec différents paramètres. Les résultats obtenus montrent que Δ-TSR améliore deux approches apparentées de la littérature (en terme de qualité de recherche et de temps d’exécution) et prouvent son passage à l’échelle.
  • Voir l'article entier

Article 602

  • Titre : Méthodologie pour l'orchestration sémantique de services : application à la fouille de documents multimédia.
  • Jérémie Doucy (Laboratoire LITIS / EADS Defence & Security)
  • Habib Abdulrab (Laboratoire LITIS)
  • Patrick Giroux (EADS Defence & Security)
  • Jean-Philippe Kotowicz (Laboratoire LITIS)
  • Résumé : Cet article présente une nouvelle approche, basée sur les standards existants, pour la construction de chaînes de traitement dans le domaine de la fouille de documents multimédia. En utilisant le paradigme des architectures orientées services, l'approche que nous présentons ici permet de simplifier drastiquement la création de ces chaînes et ouvre une voie vers la validation et l'automatisation de processus 'métiers' complexes. Nous avons appliqué cette approche dans le domaine de la fouille de documents multimédia.
  • Voir l'article entier

Article 612

  • Titre : Gestion dynamique des activités des chariots cavaliers sur un terminal portuaire à conteneurs en environnement incertain : approche par intelligence collective
  • Gaëtan Lesauvage (LITIS, Université du Havre)
  • Résumé : Le projet CALAS a pour but de mettre au point un système de positionnement laser capable de localiser précisément les chariots cavaliers sur un terminal à conteneurs afin d’envisager une optimisation de leur activité. Un terminal à conteneurs est un système ouvert sujet à la dynamicité où un grand nombre d’événements peuvent survenir, notamment les arrivées et les départs de conteneurs. Notre but est d’optimiser le déplacement des chariots cavaliers afin d’améliorer la performance globale du terminal. L’état exact du système n’est pas connu de manière fiable. Notre système d’optimisation doit donc être tolérant aux fautes et adaptatif. Dans ce contexte nous proposons une approche de résolution du problème d’affectation des missions qui utilise une méta-heuristique basée sur Ant Colony. Nous avons construit un simulateur capable de tester et de comparer différentes politiques d’ordonnancement.
  • Voir l'article entier

Article 622

  • Titre : Tatouage robuste aux attaques de désynchronisations
  • Omar Berrezoug (UM2, LIRMM)
  • Marc Chaumont (Nîmes, UM2, LIRMM)
  • Résumé : Les grandes familles de tatouage d’image robustes aux désynchronisations sont toutes apparues entre 1998 et 2002. Dans cet article nous reprenons un schéma basé contenu apparu en 2002 : le schéma de Bas et al. Ce schéma présente un fort potentiel vis-à-vis d’attaques plus difficiles qu’une simple attaque rotation-changement-d’échelle-translation. Malheureusement, dans sa forme originale, le schéma de Bas et al. est très sensible aux attaques à cause de l’utilisation d’un détecteur de points caractéristique non robuste. Nous proposons donc une amélioration du schéma par utilisation de points caractéristiques multi-échelles : les blobs. De plus, nous renforçons la détectabilité de ces points grâce à un rehaussement d’amplitude. Enfin, nous améliorons la robustesse générale du schéma par un tatouage dans les moyennes fréquences à travers l’utilisation de la transformée en ondelettes. En résumé, le schéma de tatouage consiste à détecter des points caractéristiques, les rehausser, déduire une partition de Delaunay à partir de ces points, déformer chaque triangle de la partition pour qu’il prenne la forme d’un triangle rectangle de taille prédéfini, appliquer une transformation ondelettes 2D à la texture de chaque triangle, former un vecteur de coefficients ondelettes à partir d’un sous-ensemble des coefficients ondelettes obtenus et appliquer un tatouage par étalement de spectre. Pour finir, le signal de tatouage est ré-exprimé dans le domaine image et ajouté à l’image. A la détection, chaque triangle est ou n’est pas détecté comme tatoué et l’image est considérée marquée s’il y a suffisamment de triangles tatoués. Les résultats obtenus montrent que cette approche est bien plus robuste que l’approche initiale. De plus, notre méthode se distingue par une robustesse au filtrage. Enfin, par rapport aux autres familles de tatouage robuste aux désynchronisations, l’approche permet de fournir une bonne résistance aux rognages et possède un fort potentiel d’évolutions vers encore plus de robustesse.
  • Voir l'article entier

Article 642

  • Titre : Passivité sous échantillonnage
  • Fernando Tiefensee (Laboratoire des Signaux et Systèmes, LSS-CNRS-Supelec)
  • Résumé : La passivité est un concept classique de l'ingénierie utilisé largement dans plusieurs domaines de la science. Héritée d'un phénomène physique bien connu, la passivité a été étudiée largement en temps continu et a trouvé une utilité spéciale dans l'automatique, où à partir du rigueur mathématique et de la nature pluridisciplinaire de la théorie de contrôle, s'est proliféré à plusieurs domaines scientifiques, par de nombreuses applications. Les avances incontestables de l'informatique au cours des dernières décennies, suggèrent l'implantation des solutions de systèmes automatisées par moyen d'un calculateur, où les mesures du procédé sont obtenues à partir d'échantillons et la commande est construite à partir de ces données. Dans un contexte industriel, où il y a une exigence croissante des performances, une validation sous échantillonnage des schémas de contrôle/commande en temps continu est indispensable. Ainsi, l'objectif de cet article est de présenter une étude sur les conséquences de l'échantillonnage sous les systèmes passifs. Il est bien connu qu'un système passif doit avoir des caractéristiques structurelles très restrictives pour maintenir cette propriété sous échantillonnage, et dans la plupart des cas ses conditions ne sont pas vérifiées. Ainsi il est nécessaire de développer des solutions visant maintenir la passivité dans un contexte échantillonné. Notamment, une modification de sortie est proposée et des solutions pour l'utilisation de cette nouvelle sortie visant la conception d'une commande stabilisant sont présentées.
  • Voir l'article entier

Article 652

  • Titre : L'alignement sous-phrastique multilingue pour les nuls
  • Adrien Lardilleux (GREYC - Université de Caen Basse-Normandie)
  • Résumé : L'alignement sous-phrastique consiste à extraire des traductions d'unités textuelles de grain inférieur à la phrase à partir de textes multilingues dont les phrases ont préalablement été mises en correspondance. Les méthodes les plus répandues actuellement, bien que produisant des résultats de grande qualité, sont complexes, supportent difficilement le passage à l'échelle, et ne peuvent traiter les langues que par couples. Elles mettent généralement l'accent sur les mots fréquents. Nous présentons une approche radicalement différente, tirant parti des mots rares. Elle permet l'alignement d'un nombre quelconque de langues simultanément et un passage à l'échelle naturel, tout en demeurant d'une grande simplicité.
  • Voir l'article entier

Article 682

  • Titre : Expérimentation d’un modèle abstrait de syntaxe abstraite
  • Fabien Cadoret (Université de Bretagne Occidentale - LISyC)
  • Mickaël Kerboeuf (Université de Bretagne Occidentale - LISyC)
  • Résumé : Dans le contexte de l’ingénierie dirigée par les modèles, un DSL est un langage dédié à l’expression et à la manipulation de données spécifiques à un certain domaine. Pour qu’un DSL soit exploitable, il doit être accompagné d’outils d’analyse et de transformation. Ces outils ne sont pas tous spécifiquement liés au DSL. Par exemple, les outils d’optimisation fondés sur l’analyse du flot de contrôle ne sont pas liés à un quelconque domaine et devraient donc pouvoir être appliqués à plusieurs DSL. Or, dans un développement dirigé par la syntaxe, ces outils sont difficiles à réutiliser car trop intimement liés au DSL pour lequel ils ont été conçus. Dans le but de favoriser la réutilisation, nous proposons une démarche qui consiste à créer en premier lieu un modèle abstrait des données requises par les outils partagés. Les DSL ciblés sont ensuite dérivés de ce modèle abstrait. Ils sont ainsi par construction compatibles avec les outils correspondants. Nous expérimentons le bénéfice de cette démarche sur deux DSL de domaines et de syntaxes très différents.
  • Voir l'article entier

Article 702

  • Titre : Sélection de points en apprentissage actif. Discrépance et dispersion : des critères optimaux ?
  • Benoît Gandar (Cemagref - Laboratoire LISC)
  • Gaëlle Loosli (Université Blaise Pascal - Laboratoire LIMOS)
  • Guillaume Deffuant (Cemagref - Laboratoire LISC)
  • Résumé : Nous souhaitons générer des bases d’apprentissage adaptées aux problèmes de classification. Nous montrons tout d’abord que les résultats théoriques privilégiant les suites à discrépance faible pour les problèmes de régression sont inadaptés aux problèmes de classification. Nous donnons ensuite des arguments théoriques et des résultats de simulations montrant que c’est la dispersion des points d’apprentissage qui est le critère pertinent à minimiser pour optimiser les performances de l’apprentissage en classification.
  • Voir l'article entier

Article 732

  • Titre : Conception d’une nouvelle approche pour le routage dans un réseau de capteurs sans fil
  • Mohamed Belghachi (Université de Béchar, Algérie)
  • Mohamed Feham (Université de Tlemcen, Algérie)
  • Résumé : La technologie "réseaux de capteurs" forme actuellement un domaine de recherche émergent et a fait l’objet de nombreuses études au cours des dernières années. Les réseaux de capteurs sans fil (RCSFs) soulèvent des problèmes fondamentaux pour la communauté scientifique. Ces problèmes, qui s’ajoutent à ceux rencontrés dans les réseaux ad hoc classiques, sont dus aux communications sans fil, à la densité de répartition des nœuds, aux contraintes de ressources (énergie, processeur, mémoire), à la faible fiabilité des nœuds, à la nature fortement distribuée de l’application supportée et à la mobilité des nœuds. Ces particularités spécifiques aux réseaux de capteurs en font des systèmes non fiables et dont le comportement est difficilement prédictible. Dans cet article on présente une solution qui permet d’étendre le protocole AODV (AODV : Ad hoc On-demand Distance Vector) pour garantir de la qualité de service en termes de délai global. L’amélioration que nous apportons consiste à définir une fonction qui maximise les chances de sélectionner la route la plus facilement réparable et donc dont les délais de reconstruction seront les plus faible puisqu’ils mettent en jeu un re-routage local. Dans cette phase décisionnelle, nous cherchons à exploiter au maximum les paramètres contenus dans les messages de demande de connexion parvenus à la destination. Ces paramètres sont, pour chaque route, le nombre de nœuds impliqués, la densité moyenne et le nombre de goulots d’étranglements. Dans ce contexte, il faut choisir la route ayant les caractéristiques suivantes : - le nombre de nœuds le plus faible. - La densité moyenne la plus forte possible. - Le nombre de goulots d’étranglement le plus faible. Une route est d’autant plus difficile à réparer par un re-routage partiel qu’elle fait intervenir de longs enchaînements de nœuds autour desquels la densité est faible. Une topologie qui contient de tels enchaînements est considérée comme peu intéressante car sa maintenance est compliquée. Le re-routage local en cas de défaillance d’un nœud sur ces routes ne sera en effet pas efficace. Il faudra donc plus souvent procéder à un re-routage plus gourmand en temps et en bande passante qu’un re-routage local.
  • Voir l'article entier

Article 752

  • Titre : Maximisation du débit des systèmes OFDM multicast dans un contexte de courant porteur en ligne
  • Ali Maiga (IETR)
  • Jean-Yves Baudais (CNRS)
  • Jean-François Helard (IETR)
  • Résumé : Dans ce papier, nous proposons une méthode d'allocation de ressources permettant d'augmenter le débit des systèmes OFDM multicast dans un contexte de courant porteur en ligne (CPL). Cette méthode est basée sur la technique de précodage linéaire, qui, appliquée aux systèmes OFDM, a apporté un gain significatif de débit sur les lignes d'énergie. Dans le cadre des systèmes multicast OFDM, les simulations réalisées sur des canaux CPL montrent un apport de gain significatif comparé à la méthode classique en multicast.
  • Voir l'article entier

Article 762

  • Titre : Les tables du Lexique-Grammaire au format TAL
  • Elsa Tolone (Institut Gaspard-Monge, Université Paris-Est)
  • Résumé : Dans cet article, nous présentons les tables du Lexique-Grammaire, qui constituent un lexique syntaxique très riche pour le français. Cette base de données linguistique est inexploitables informatiquement car elle est incomplète et manque de cohérence. Notre objectif est d'adapter les tables pour les rendre utilisables dans diverses applications de Traitement Automatique des Langues (TAL). Nous expliquons les problèmes rencontrés et les méthodes adoptées pour permettre de les intégrer dans un analyseur syntaxique.
  • Voir l'article entier

Article 782

  • Titre : Contrôle d'Admission du Trafic Non Temps Réel dans le réseau multiservices IEEE802.16e
  • Khalil Ibrahimi (LIA (Laboratoire d'Informatique d'Avignon))
  • Mohamed Baslam (LIMIARF, Maroc)
  • Sihame Elhammani (LIMIARF, Maroc)
  • Résumé : Nous développons dans ce papier un nouveau algorithme d'allocation de ressources pour les appels non temps réel (NRT). Cet algorithme du contrôle d'admission, garantit à tous les appels non temps réel dans le système un débit binaire minimum quant la charge du système augmente. La durée moyenne des appels non temps réel dépend de la quantité moyenne à transmettre et du débit demandé. L'algorithme prend en considération la mobilité intra cellulaire des utilisateurs. Nous modélisons le système IEEE802.16e par une chaîne de Markov à temps continu (Continuous Time Markov Chain, CTMC), et fournissons quelques performances du système qui nous intéresses, telles que le débit total du système et le temps de séjour total des appels en cours.
  • Voir l'article entier

Article 792

  • Titre : Modelisations de l'analyse par David Lewin du Klavierstuck III
  • Yun-Kang Ahn (IRCAM)
  • Carlos Agon (IRCAM)
  • Moreno Andreatta (IRCAM)
  • Résumé : Le Klavierstuck III de Stockhausen est une piece ayant fait l'objet de nombreuses analyses musicales. Parmi celles-ci, l'analyse de Lewin consiste a creer une segmentation qui couvre la partition a l'aide de groupes lies les uns avec les autres a l'aide de transformations inherentes a la Set Theory. Cette theorie musicale se focalise sur les hauteurs et les relations entre elles. Plus precisement, cette analyse s'attache a montrer que la structure de la piece repose sur l'ensemble de 5 notes (pentacorde) initial a partir duquel toute la piece est generee. Une premiere etape consiste a chercher des segments qui pourront etre utilises par la suite, puis il s'agit ensuite de modeliser la segmentation selon deux criteres : la progression, c'est-a-dire un parcours du pentacorde au sein de la piece, et la couverture qui represente la portion de partition comprise dans la segmentation. Notre approche vise une segmentation qui s'oriente soit vers la progressin du parcours musical, soit la couverture maximale.Les resultats seront compares a l'analyse de Lewin en vue de la valider et de l'etendre.
  • Voir l'article entier

Article 802

  • Titre : Extraction de contenu photographique en utilisant les SIG
  • Yousssef Attia (CRENAM)
  • Thierry Joliveau (CRENAM)
  • Eric Favier (ENISE)
  • Benoit Delaup ()
  • Résumé : L’annotation des photos avec des informations qualitative est une tache longue et ennuyeuse. Une des manières optimales d’organiser des photos est de les annoter en précisant le contenu et la position des objets dans la photo. Ces objets sont les éléments qui sont observables à partir de la position de la caméra. Notre projet consiste à évaluer les possibilités de relier le plus automatiquement possible des bases de données géographiques et des photographies. Ce travail vise à mettre en oeuvre un concept qui effectue l’extraction automatique de contenus de photos urbaines puis lie automatiquement le contenu de l’image avec une base de données géographiques.
  • Voir l'article entier

Article 812

  • Titre : Etude comparative entre les protocoles de routage de la QoS dans
  • Nouredine Seddiki (Universiter de béchar (algérie))
  • Mohammed Feham (Universiter de tlemcen, Algérie)
  • Résumé : Etablir une étude comparative de cinq protocoles de routage avec QoS pour des réseaux Ad Hoc. Donner le principe de fonctionnement de ces protocoles pour voir quelles mesures ils répondent à la problématique de la QoS dans les réseaux Ad Hoc. Puis vient une étape de comparaison qui permet de dégager les principales caractéristiques de ces protocoles. L'analyse de cette étape conduite à un bilan des forces et faiblesses et qui permet de déterminer dans quelle situation chaque protocole est le plus adapté, les protocoles sont: A. le protocole CEDAR B. le protocole QOLSR C. le protocole TBP D. le protocole DSDV E. le protocole BRuiT
  • Voir l'article entier

Article 822

  • Titre : Détection et poursuite de cibles par minimisation de la complexité stochastique
  • Jean-François Boulanger (Institut Fresnel)
  • Frédéric Galland (Institut Fresnel)
  • Philippe Réfrégier (Institut Fresnel)
  • Pascal Martin (Kaolab)
  • Résumé : L'accroissement de la puissance des ordinateurs, la miniaturisation des capteurs optiques et la baisse de leurs coûts de production ont favorisé le développement d'applications de vidéosurveillance. Dans ce contexte, il est nécessaire de développer des algorithmes rapides et non supervisés de détection et de poursuite de cibles. Nous avons récemment proposé une méthode de poursuite de cibles fondée sur la minimisation de la complexité stochastique. Nous généralisons cette approche au cas de la détection de cibles et nous présentons ensuite le couplage de ces algorithmes afin de suivre l'évolution de plusieurs cibles sur des séquences d'images.
  • Voir l'article entier

Article 832

  • Titre : Étude d’activité collaborative en situation opérationnelle
  • Pierre Montferrat (TELECOM Bretagne)
  • Franck Poirier (Université de Bretagne-Sud )
  • Gilles Coppin (TELECOM Bretagne)
  • Résumé : Cet article décrit en premier lieu le protocole utilisé pour une expérimentation qui place des utilisateurs en situation opérationnelle de travail collaboratif. Ce protocole est basé sur les modes opératoires d’une tâche à caractère militaire : la patrouille maritime. La reconnaissance et l’identification d’information dans une zone géographique donnée et en un temps limité sont les caractéristiques principales d’une mission de patrouille maritime, et ce sont également celles de notre protocole. En second lieu, cet article expose les premiers résultats issus de l’analyse des comportements collaboratifs observés.
  • Voir l'article entier

Article 842

  • Titre : Dagda, un intergiciel réparti pour la simulation de systèmes complexes
  • Guilhelm Savin (LITIS)
  • Résumé : Les simulations de systèmes complexes sont souvent composés d'un ensemble massif d'entités. La notion d'entité reste volontairement générique et englobe les notions d'agent, d'objet actif, etc... Durant ces simulations, de nombreuses interactions se forment entre les entités. La proportion que peut prendre le nombre d'entités durant ces simulations oblige les développeurs à envisager de distribuer les simulations sur un ensemble de machines. La parallélisation de l'exécution des entités est difficilement envisageable du fait des interactions existantes et principalement du non-déterminisme de cette exécution pouvant varier en fonction du contexte dans lequel se trouve l'entité. La répartition des entités semble donc être la meilleure solution. Nous présentons dans ce papier un intergiciel permettant de gérer l'exécution d'une simulation sur plusieurs machines de manière transparente. Cette plate-forme intègre le répartiteur de charges AntCo2 qui permet d'équilibrer la charge de calcul des machines tout en réduisant la charge réseau.
  • Voir l'article entier

Article 852

  • Titre : Étude du Parallélisme de la Décomposition QR Appliquée aux Systèmes LTE Advanced
  • Sébastien Aubert (ST-Ericsson/INSA IETR)
  • Fabienne Nouvel (INSA IETR)
  • Pier Lorenzo Bianchini (Polytech’Nice-Sophia)
  • Antoine Biscaino (Polytech’Nice-Sophia)
  • Nicolas Dioli (Polytech’Nice-Sophia)
  • Résumé : La Décomposition QR (DQR) est une étape essentielle, bien que sous-estimée, des techniques de détection pseudo-linéaires telles que l’Annulation Successive d’Interférences (ASI) ou le Décodeur Sphérique (DS) dans les systèmes Multiple Input Multiple Output (MIMO). Les contraintes d’implantation nécessitent de déterminer un compromis entre complexité, la plus proche possible des détecteurs linéaires, et performances, les plus proches possible de celles du Maximum de Vraisemblance (MV). Dans cet article, les complexités et les performances de différents algorithmes de DQR sont étudiées, avec une attention particulière portée au parallélisme potentiel, et une solution adaptée au contexte LTE Advanced (LTE-A) est proposée.
  • Voir l'article entier

Article 872

  • Titre : Adaptive resources allocation at the cell border using cooperative technique
  • Abbass Marouni (IETR, INSA de Rennes)
  • Youssef Nasser (IETR, INSA de Rennes)
  • Maryline Hélard (IETR, INSA de Rennes)
  • Haidar El-Mokdad (Université Libanaise, Faculté de génie III)
  • Résumé : Les techniques de communication coopérative ont connu récemment un large intérêt dans la communauté de recherche vu les grands avantages qu’elles pourraient apporter en termes de performance et de débit. Le principe de base des communications coopérative est fondé sur l’utilisation d’un relai entre la source (émetteur) et la destination (récepteur). Dans ce papier, on propose une adaptation de l’allocation des ressources dans les relais afin de profiter au maximum de ces techniques. Plus particulièrement, on est intéressé à la situation des mobiles en bordure de cellule dans un contexte multicellulaire. Dans ce contexte, les mobiles pourraient demander plusieurs types de services avec plusieurs priorités mais avec des conditions difficiles du canal de transmission. En utilisant une allocation adaptative de ressources et une optimisation inter-couche, on démontre qu’on peut assurer les contraintes de priorité et de performance (application temps réel) requises par les mobiles en bordure de cellule.
  • Voir l'article entier

Article 882

  • Titre : SPEM4MDE : un métamodèle basé sur SPEM 2 pour la spécification des procédés MDE
  • Samba Diaw (Laboratoire IRIT)
  • Rédouane Lbath (Laboratoire IRIT)
  • Bernard Coulette (Laboratoire IRIT)
  • Résumé : L’approche MDA (Model Driven Architecture) place les modèles au coeur du processus de développement logiciel. Cependant l’utilisation de MDA requiert la définition d’un procédé logiciel qui doit guider les développeurs dans l’élaboration et la génération des modèles Au moment où des procédés logiciels dirigés par les modèles émergent (MDA, OpenUP for MDD, processus de composition,etc.), nous notons une absence de LDP (Langage de Description de Procédés) permettant la description, la réutilisation et l’évolution de ces procédés Dans ce contexte, nous proposons dans cet article une nouvelle approche pour la spécification des procédés de développement qui prend en compte les notions de base de l’IDM (Ingénierie Dirigée par les Modèles). Cette approche est basée sur un métamodèle générique et flexible dénommé SPEM4MDE qui étend certains concepts de SPEM 2.0 et d’UML 2.0. Il est dédié à la modélisation et à la mise en oeuvre des procédés de développement logiciels dirigés par les modèles.
  • Voir l'article entier

Article 922

  • Titre : Modélisation hybride en coordonnées Lagrangiennes de flux de trafic routier
  • Samia Smaili (IBISC, Université d'Evry Val d'Essonne)
  • Résumé : Dans cette présentation, nous développons une nouvelle approche de modélisation hybride de flux de trafic routier. Il s’agit d'un couplage d'une classe de modèles macroscopiques du second ordre(ARZ) et d'une classe de modèles microscopiques (follow-the-leader) en coordonnées Lagrangiennes. Cette nouvelle façon d'hybrider offre des avantages non négligeables. En effet, dans le modèle hybride purement Lagrangien, les interfaces sont mobiles et le problème de conservation de La masse ne se pose pas.
  • Voir l'article entier

Article 962

  • Titre : Segmentation des couches rétiniennes dans des images OCT : méthode et évaluation quantitative
  • Itebeddine Ghorbel (Télécom ParisTech& Institut Supérieur d’Electronique de Paris & FOVEA Pharmaceuticals)
  • Florence Rossant (Institut Supérieur d’Electronique de Paris )
  • Isabelle Bloch (Télécom ParisTech, CNRS UMR 5141 LTCI)
  • Michel Paques (Centre d’Insvestigation Clinique CIC 503, Centre Hospitalier National des Quinze-Vingts)
  • Sarah Tick (Centre d’Insvestigation Clinique CIC 503, Centre Hospitalier National des Quinze-Vingts)
  • Résumé : Les avancées récentes de l’imagerie par tomographie de cohérence optique (OCT) permettent d’obtenir des images de haute résolution de la rétine mettant en évidence les différentes couches rétiniennes. Nous proposons une méthode de segmentation de ces images pour extraire automatiquement huit couches, avec une bonne précision autour de la fovéola, ainsi qu’un protocole de validation et d’évaluation de cette méthode. Les résultats sont comparés avec les segmentations manuelles réalisées par cinq médecins différents, pour lesquelles nous avons analysé les variabilités inter et intra-utilisateurs. Ces comparaisons sont effectuées d’une part de manière directe par le calcul d’une distance entre les interfaces segmentées et d’autre part de manière rétrospective sur les mesures d’épaisseur déduites des segmentations. L’étude a été menée sur une grande base de données, comportant une centaine d’images.
  • Voir l'article entier

Article 972

  • Titre : Appariement de phrases courtes pour la traduction automatique par l’exemple
  • Julien Gosme (Université de Caen Basse-Normandie)
  • Résumé : La constitution de ressources linguistiques pour les systèmes de traduction automatique fondée sur les données est une tâche critique. Ces systèmes de traduction ont besoin de corpus de phrases alignées pour chaque couple de langues. La constitution de telles ressources est généralement effectuée à la main par des traducteurs. Nous proposons une méthode automatisant la constitution de corpus bilingues de phrases courtes en employant une représentation vectorielle bien connue en recherche d'information. Un dictionnaire bilingue est nécessaire par couple de langues considéré. Nous utilisons le Web afin de constituer des corpus de documents monolingues sur lesquels appliquer l'appariement de phrases courtes. Le coût humain total de la constitution d'un corpus bilingue de phrase est extrêmement réduit : seule une validation manuelle est nécessaire après appariement. Une expérience en français-anglais permet d'estimer la précision de la méthode d'appariement. 800 phrases traductions ont été collectées avec une précision de 0,80 à partir de 100 000 phrases collectées dans chaque langue.
  • Voir l'article entier

Article 982

  • Titre : Allocation Dynamique de Ressource dans les Systèmes ULB sous Contrainte de Qualité de Service
  • Elias Najjar (IETR)
  • Ayman Khalil (IETR)
  • Matthieu Crussière (IETR)
  • Jean-Francois Hélard (IETR)
  • Résumé : La technologie Ultra Large Bande (ULB) est utilisée pour les communications sans fil WPAN (Wireless Personal Area Network). Dans cet article, nous proposons deux solutions pour l’allocation dynamique de ressource dans les systèmes ULB à haut débit en assurant la notion de qualité de service (QoS). La première présente un algorithme pour le partage, entre trois utilisateurs, des 3 sous-bandes d’un même groupe dans la solution multi-bande (MB-OFDM) soutenue par l’Alliance WiMedia. La seconde solution présente une méthode de partage, toujours entre 3 utilisateurs, d’une bande de fréquence égale à la somme des trois sous-bandes adoptées dans le cas de MB-OFDM mais en tenant compte de la QoS et que la somme des sousporteuses allouées pour un utilisateur soit la même que dans le cas de MB-OFDM. En étudiant les performances des deux solutions proposées, nous déduisons qu’ils répondent bien aux contraintes demandées mais avec un comportement différent qui dépend des critères de QoS.
  • Voir l'article entier

Article 992

  • Titre : Algorithme de décodage généralisé par propagation de croyances
  • Jean-Christophe Sibel (Laboratoire ETIS UMR 8051-CNRS, ENSEA - Université de Cergy-Pontoise, 6 avenue du Ponceau, 95014 Cergy-Pontoise Cedex)
  • Sylvain Reynal (Laboratoire ETIS UMR 8051-CNRS, ENSEA - Université de Cergy-Pontoise, 6 avenue du Ponceau, 95014 Cergy-Pontoise Cedex)
  • Résumé : Les communications numériques reposent sur un trio de transmission : émetteur, canal, récepteur. Le canal est l’objet de perturbations physiques qui induisent des erreurs dans le message transmis. Afin de se prémunir contre ces erreurs, on utilise un code correcteur d’erreurs qui consiste au niveau de l’émetteur à ajouter de la redondance au message. Au niveau du récepteur, l’opération de décodage permet alors de récuperer l’information utile. Un des algorithmes de décodage les plus répandus est l’algorithme de propagation de croyances, de type itératif, réputé sous-optimal pour une certaine catégorie de codes, en raison de l’existence de cycles dans le graphe de ces codes. Nous présentons dans cet article une généralisation de la propagation de croyances qui permet de rendre le décodage optimal y compris en présence de cycles, offrant ainsi une meilleure récupération de l’information. Nous décrivons la construction de l’algorithme par analogie avec une technique de physique statistique appliquée à un réseau de spins, puis nous en faisons le lien avec les représentations graphiques des codes LDPC.
  • Voir l'article entier

Article 1002

  • Titre : Caractérisation de la dynamique pelvienne par les descripteurs de formes
  • Mehdi Rahim (Laboratoire des Sciences de l'Information et des Systèmes)
  • Marc-Emmanuel Bellemare (Laboratoire des Sciences de l'Information et des Systèmes)
  • Nicolas Pirro (Service Chirurgie Digestive. Hôpital La Timone)
  • Rémy Bulot (Laboratoire des Sciences de l'Information et des Systèmes)
  • Résumé : Les troubles de la statique pelvienne regroupent un ensemble de pathologies fonctionnelles dont la physiopathologie est mal connue. L’acquisition IRM dynamique de la cavité pelvienne sur le plan sagittal permet d’observer les comportements des organes pelviens, ces derniers se caractérisent par des déplacements et des déformations. L’objectif de notre étude est de caractériser quantitativement ces comportements, en utilisant les descripteurs de formes pour l’estimation des déformations que subissent les principaux organes pelviens (vessie, utérus, rectum) lors d’un effort de poussée.
  • Voir l'article entier

Article 1022

  • Titre : Slotted Aloha à Première Transmission Différée : Une Nouvelle Solution pour Supporter les Applications Sensibles au Délai
  • Essaid Sabir (LIA, Université d'Avignon)
  • Mohammed Raiss (LIMIARF, Rabat, Maroc)
  • Mohamed Elkamili (LISQ, Fès, Maroc)
  • Résumé : Nous considérons le lien montant d'un réseau cellulaire, tel que l'UMTS, où $m$ mobiles transmettent à la station de base sur un canal commun via le protocole slotted aloha. Pour réduire le taux de collision, en particulier à moyen et fort trafic, nous proposons une nouvelle variante que nous appelons aloha différé et qui se base sur l'idée suivante : Contrairement au protocole standard où un nouveau paquet est immédiatement transmis, nous considérons que chaque nouveau paquet est transmis avec une probabilité $p_a$. Nous avons construit un modèle Markovien basé sur le processus du nombre de paquets en attente. Puis, nous avons calculé le débit ainsi que le délai moyens et les avons utilisé comme des objectifs à optimiser par les mobiles. Ensuite, nous avons étudié l'impact des différentes variables de décision sur le débit et le délai, ainsi que la stabilité de notre nouveau protocole. Des conclusions ont été tirées à partir des exemples numériques montrant ainsi l'efficacité de notre solution ainsi que son intérêt pour supporter les applications interactives et temps-réel sur cette famille de protocoles.
  • Voir l'article entier

Article 1032

  • Titre : Bornes quasi-certaines sur l'accumulation d'erreurs infimes dans les systèmes hybrides
  • Marc Daumas (ÉLIAUS, Université de Perpignan)
  • Érik Martin-Dorel (Université Montpellier 2 & Université de Perpignan)
  • Annick Truffert (LAMPS, Université de Perpignan)
  • Résumé : Les gros systèmes industriels constituent, soit seuls, soit avec leur environnement, des systèmes hybrides (logiciel, matériel) qui évoluent pendant un grand laps de temps. Les méthodes d'analyse au pire cas aboutissent souvent à la conclusion que ces systèmes ne peuvent que tomber en panne. Il est alors admis que ces systèmes ont une probabilité (de préférence infime) de ne pas fonctionner correctement. Nous présentons ici nos premiers travaux pour fournir une certification par les méthodes formelles de ce type de bon fonctionnement. Ce travail nous a amené à nous pencher sur les développements existants en probabilités et à définir une feuille de route pour de nouveaux développements formels en probabilités et en statistiques. Cette présentation replace les différentes tâches dans l'architecture générale d'une chaîne de certification contenant à la fois des éléments formels et des mesures empiriques d'un code instrumenté.
  • Voir l'article entier

Article 1092

  • Titre : Extraction automatisée de lignes et de fragments textuels dans les images de manuscrits d’auteur du 19ème siècle
  • Vincent Malleron (Université de Lyon, CNRS, INSA-Lyon, LIRIS, UMR5205, F-69621, France)
  • Véronique Eglin (Université de Lyon, CNRS, INSA-Lyon, LIRIS, UMR5205, F-69621, France)
  • Hubert Emptoz (Université de Lyon, CNRS, INSA-Lyon, LIRIS, UMR5205, F-69621, France)
  • Stéphanie Dord-Crouslé (Université de Lyon, CNRS, LIRE, UMR 5611 F-69007, France)
  • Philippe Régnier (Université de Lyon, CNRS, LIRE, UMR 5611 F-69007, France)
  • Résumé : Dans cet article on propose une nouvelle approche pour l’enrichissement des éditions électroniques de corpus littéraires grâce à l’estimation de la structure des documents manuscrits. Dans tout processus d’analyse de document manuscrit l’analyse de la structure est une étape importante : en effet, disposer de la position des lignes de texte, des paragraphes et des fragments permet d’envisager de nouveaux moyen d’exploiter les corpus littéraires. L’extraction de structure d’un document manuscrit est rendu difficile par les variations d’orientation de la ligne de base et des espaces interligne mais également par les chevauchements entre lignes et les occlusions. On propose un algorithme d’extraction des lignes de texte et des fragments textuels basé sur une analyse en composante connexes. Une fois l’extraction des composantes connexes réalisée on construit un graphe d’adjacences pondéré et orienté : chaque composante connexe correspond a un noeud. Chaque noeud est l’origine de 4 arcs les reliant à ses plus proches voisins dans 4 directions : gauche, droite, haut et bas. En parallèle et via une approche similaire chaque composante connexe est identifiée comme appartenant à une des classes suivantes : haut de page, bas de page, gauche, droite ou intérieur du texte. Cette identification permet d’initialiser l’algorithme d’extraction des lignes qui utilise une recherche du plus court chemin entre connexité gauche et droite sur le graphe orienté décrit précédemment. L’extraction des fragments est ensuite réalisée via une fusion des lignes extraites par rapport à des critères de distance interligne et de variation d’orientation de la ligne de base.
  • Voir l'article entier

Article 1112

  • Titre : Cartes à puce : attaques et contremesures
  • Agnes Noubissi (Université de Limoges, Laboratoire XLIM, Equipe SSD, )
  • Ahmadou Al-Khary Sere (Université de Limoges, Laboratoire XLIM, Equipe SSD, )
  • Julien Iguchi-Cartigny (Université de Limoges, Laboratoire XLIM, Equipe SSD, )
  • Jean-Louis Lanet (Université de Limoges, Laboratoire XLIM, Equipe SSD, )
  • Guillaume Bouffard (Université de Limoges, Etudiants Master )
  • Résumé : L'article porte sur nos travaux de recherche traitant des attaques en fautes et des attaques logiques sur les cartes à puce, en particulier sur la Java Card. Nous introduisons en présentant la Java Card et ses mécanismes sécuritaires. Ensuite nous présentons les types d'attaques réalisées sur les cartes à puce et, nous présentons quelques contremesures de ces attaques et en particulier celles sur les attaques en fautes. Et nous terminons par la présentation de nos travaux sur l'outil de manipulation d'un format de fichier de la Java Card et des propositions d'autres contremesures pour les attaques en faute.
  • Voir l'article entier

Article 1142

  • Titre : Optimisation du critère d'Hurwicz pour les arbres de décision hasard en situation d'incertain total
  • Gildas Jeantet (Laboratoire d'Informatique de Paris 6)
  • Résumé : Cet article est consacré aux problèmes de décision séquentielle dans l'incertain lorsque le décideur a une ignorance complète sur les probabilités des événements. Nous étudions ici le problème de la détermination d'une stratégie optimale au sens d'Hurwicz dans les arbres de décision hasard. Après avoir montré que l'approche par programmation dynamique classique est inopérante pour optimiser le critère d'Hurwicz dans un arbre de décision hasard, nous proposons un algorithme polynomial pour résoudre ce problème. Enfin nous fournissons des tests numériques effectués sur des instances générées aléatoirement pour illustrer les performances de notre algorithme.
  • Voir l'article entier

Article 1152

  • Titre : Modem bi-mode CPL/RF pour réseau embarqué dans les véhicules automobiles
  • Philippe Tanguy (IETR)
  • Fabienne Nouvel (IETR)
  • Résumé : Le marché de l'automobile se tourne de plus en plus vers des solutions électroniques pour la sécurité, pour remplacer les fonctions mécaniques, pour le multimédia, etc. Ces nouvelles fonctionnalités ont cependant besoin de communiquer entre elles. Ainsi les réseaux de communications intra-véhicule sont de plus en plus nombreux au sein d'un véhicule comme le CAN ou le FlexRay (10 Mbps). Toutefois, de nouveaux bus de communication sont nécessaires pour à la fois réduire le nombre de câbles (e.g. certaines voitures peuvent avoir jusqu'à 3 km de câbles pesant alors environ 50 kg) et augmenter les débits. Notre étude porte sur la démonstration de la faisabilité de nouveaux bus de communication utilisant un médium de communication Radio Fréquence (RF) et Courant Porteur en Ligne (CPL). Aucun nouveau câble n'est ajouté et les standards utilisés en Indoor comme le WiFi et l'HomePlug Av (courant porteur en ligne) permettent d'envisager des débits élevés. Des mesures de débit effectuées au sein d'une Peugeot 407 SW démontrent la faisabilité de ces solutions. En ce qui concerne le CPL, nous avons adapté des modems du commerce utilisés en Indoor pour les coupler au réseau électrique de la voiture. Nos premières expérimentations nous ont permis d'avoir des débits supérieurs à 10 Mbps (voiture éteinte). Des mesures de débit pour une communication WiFi (norme IEEE 802.11g) ont aussi été faites et nous avons constaté un débit moyen de 11 Mbps (voiture éteinte ou en mouvement). Remarquons enfin que ces débits mesurés sont supérieurs à ceux du FlexRay.
  • Voir l'article entier

Article 1162

  • Titre : Localisation interne et en contexte des logiciels commerciaux et libres
  • Amel Fraisse (Université Joseph Fourier Grenoble)
  • Christian Boitet (Université Joseph Fourier Grenoble)
  • Hervé Blanchon (Université Joseph Fourier Grenoble)
  • Valérie Bellynck (Université Joseph Fourier Grenoble)
  • Résumé : Nous proposons une méthode novatrice pour permettre la localisation en contexte de la majorité des logiciels commerciaux et libres, ceux programmés en Java et en C++/C. Actuellement, il arrive souvent que des applications localisées présentent aux utilisateurs des éléments textuels d’interface non pertinents parce que, soit ils n’ont pas été tous traduits, soit leur traduction n’est pas parfaitement satisfaisante. Notre méthode consiste à modifier le code minimalement très localement, et systématiquement de la même manière pour toutes les applications, de façon à faire participer les utilisateurs finals au processus de localisation. Il s’agit donc d’un paradigme de localisation interne. Pendant qu’ils utilisent l’application, les utilisateurs connaissant l’anglais peuvent traduire certains éléments textuels de l’interface comme les boutons, les menus, les étiquettes, les onglets…, ou améliorer la traduction proposée par des systèmes de traduction automatique (TA) ou de mémoire de traductions (MT): la localisation se fait donc en contexte.
  • Voir l'article entier

Article 1172

  • Titre : Exterlog : Extraction de la terminologie à partir de logs
  • Hassan Saneifar (LIRMM - Univ. Montpellier 2 - CNRS UMR 5506)
  • Résumé : Les fichiers logs issus des systèmes numériques contiennent des informations importantes concernant les conditions et les configurations du système. Dans le domaine de la conception de circuits intégrés, des fichiers logs sont produits par les outils de conception mais ne sont pas systématiquement exploités de façon optimale. Bien que ces logs soient écrits en anglais, ils ne respectent généralement pas la grammaire ou les structures du langage naturel. En outre, ils ont des structures hétérogènes et évolutives. Selon les particularités de telles données textuelles, l’application des méthodes classiques de TALN n’est pas une tâche facile, particulièrement pour extraire la terminologie. Dans cet article, nous présentons notre approche EXTERLOG qui extrait la terminologie à partir des logs. Nous étudions également si l’étiquetage grammatical de fichiers logs est une approche pertinente pour extraire la terminologie.
  • Voir l'article entier

Article 1182

  • Titre : Exploiter les caractéristiques d’un radar panoramique hyperfréquence pour cartographier et se localiser à la volée
  • Damien Vivet (LASMEA)
  • Résumé : Cet article concerne la cartographie d'un environnement d'extérieur à partir d'un robot mobile muni de capteurs. Le robot cherche en simultané à se localiser dans le milieu qu'il explore. Le monde visité est initialement considéré comme statique mais le challenge à relever est d'être en mesure de cartographier et de se localiser tout en identifiant et en suivant d'éventuelles entités mobiles. La particularité ici est que le capteur employé est un radar hyperfréquence pouvant effectuer des acquisitions sur 360°. Il utilise le principe de modulation de fréquence. L'intérêt d'un tel capteur est sa grande robustesse aux conditions environnementales ainsi que sa longue portée qui permettent de viser des applications robotiques en milieu étendu à haute vitesse. De plus, la prochaine version du radar, baptisé IMPALA, sera capable de fournir nativement des informations sur la vitesse des objets dans l'environnement du robot. Parmi les nombreuses difficultés liées à cette problématique, les distorsions géométriques des relevés introduites par les déplacements du robot sont un phénomène souvent négligé. Plus la vitesse d'acquisition du capteur en question est faible relativement au mouvement du porteur, plus la distorsion est grande et doit donc être prise en compte. Aussi, à l'opposé d'autres approches qui ne traitent les informations qu'une fois un relevé sur 360° acquis, les données radar sont exploitées en continu et sont interprétées à la volée. L'objectif est de réduire les effets de distorsion dus aux mouvements du capteur. La technique de localisation et de cartographie à la volée proposée exploite les propriétés du filtre de Kalman étendu.
  • Voir l'article entier

Article 1192

  • Titre : Heuristiques pour le routage multicritère
  • Alia Bellabas (IRISA/INSA Rennes)
  • Miklos Molnar (IRISA/INSA Rennes)
  • Samer Lahoud (IRISA/Université Rennes1 Rennes)
  • Résumé : Les applications dans les réseaux actuels deviennent de plus en plus gourmandes en ressources et exigeantes en qualité de service. Ainsi, le routage doit satisfaire plusieurs contraintes telles que le délai, la bande passante ou la gigue. Il s’agit alors d’appliquer un routage multicritère. Plusieurs solutions algorithmiques existent dans la littérature. L’un des algorithmes les plus performants est SAMCRA (Self Adaptive Multiple Constraints Routing Algorithm) proposé par Van Mieghem et al. en 2001. SAMCRA est un algorithme multicritère unicast exact mais de grande complexité. Dans notre étude, nous cherchons à remplacer SAMCRA par un algorithme moins couteux qui calcule des k plus courts chemins. Les simulations montrent que l’application d’un tel algorithme réduit de manière significative la complexité du problème de routage multicritère, tout en donnant des solutions satisfaisantes.
  • Voir l'article entier

Article 1222

  • Titre : Une approche de description d'Interfaces Homme-Machine multi-niveaux
  • Christian Brel (Laboratoire I3S - CNRS - Université de Nice-Sophia Antipolis)
  • Résumé : Les travaux dans le domaine du génie logiciel tendent à offrir toujours plus de possibilités en terme de réutilisation. Les concepteurs de sites web sont confrontés à cette problématique : construire et faire évoluer les applications web en combinant des services provenant de sources diverses. L’opération de composition des services implique de construire une nouvelle Interface Homme Machine (IHM), c’est-à-dire de nouvelles pages web, afin de permettre l’accès et l’utilisation combinée de ces services distants. Puisque le concepteur d’applications web n’a pas accès aux services eux mêmes mais seulement à leurs IHM, il est alors plus intéressant d’exploiter les principes de composition et de réutilisation directement au niveau des IHM. Nous proposons alors d’utiliser de façon combinée différents travaux autour de la composition menés au sein de la communauté IHM. Cet article présente un formalisme de description des IHM permettant de garantir une composition plus cohérente car recoupant des informations provenant de différents niveaux de conception des IHM.
  • Voir l'article entier

Article 1252

  • Titre : Traduction multilingue de FrameNet par dictionnaires bilingues avec évaluation sur la paire anglais-français
  • Claire Mouton (Exalead / CEA LIST)
  • Benoit Richert (CEA LIST)
  • Gael De Chalendar (CEA LIST)
  • Résumé : L'analyse sémantique de texte a pour but d'apporter aux machines de l'information leur permettant de traiter intelligemment du texte, au-delà des mots qui ne sont que des symboles. L'annotation sémantique d'un texte en rôles (Semantic Role Labeling, SRL) consiste à attribuer des rôles sémantiques aux différent syntagmes du texte. Ces rôles sont prédéfinis par des ressources sémantiques de référence décrivant des situations unitaires standard et les différents rôles qui peuvent y être associés. Les principales ressources de Semantic Role Labeling décrivant les situations de référence sont anglophones, et rares sont les ressources multilingues. Ce travail a pour but de transposer une ressource de SRL (Framenet) dans une autre langue. Ici la transposition se fait vers le français mais la méthode est applicable à la langue de son choix. Cette transposition a été réalisée à partir de l'extraction de paires de traduction de deux dictionnaires bilingues différents (le dictionnaire collaboratif multilingue Wiktionnaire et un dictionnaire standard français-anglais), puis par filtrage des paires obtenues. L'évaluation, réalisée sur la langue française, a permis d'obtenir une ressource à forte précision contenant après filtrage autant d'entrées que la ressource d'origine en anglais.
  • Voir l'article entier

Article 1262

  • Titre : Sécurité des Calculs Distribués Multipartie. Application : Sécuriser le Calcul Distribué des Confiances
  • Boussad Ait-Salem (Université de Limoges)
  • Résumé : Le problème de la sécurité des calculs distribués entre plusieurs parties est de permettre à ces différentes parties de réaliser des calculs, basés sur leurs données privées (p1 , p2 , ..., pn ), de manière à ce que tout le monde connaisse le résultat final du calcul : f(p1 , p2 , ..., pn ), mais aucune partie ne puisse déduire les données privées des autres. Dans cet article, nous allons tout d’abord présenter quelques notions générales et quelques primitives cryptographiques de base utilisées dans ce domaine. Ensuite, nous aborderons le cas de la sécurité du produit scalaire distribué appliqué aux modèles de confiance. A cet effet, nous proposerons un schéma indépendant des applications et de la topologie des réseaux. Basé sur des primitives cryptographiques dont la sécurité a été prouvée, notre modèle offre un moyen sûr et efficace permettant d’assurer le calcul des confiances tout en préservant la confidentialité des données privées des différentes entités qui interviennent dans ce calcul.
  • Voir l'article entier

Article 1272

  • Titre : Application de la théorie de l’Appraisal à l’analyse d’opinions
  • Pierre Gardin (Université de Caen-Basse-Normandie)
  • Résumé : Cet article présente un travail de recherche en cours dans le domaine de la fouille d’opinions. Il commence par introduire cette discipline, ses principales branches et ses applications, ainsi que les différentes approches existantes pour la classification d’opinions. Puis, il expose la théorie de l’Appraisal, qui permet d’analyser l’évaluation et le positionnement dialogique dans le formalisme de la Linguistique Systémique Fonctionnelle. Il introduit ensuite une approche pour l’extraction d’opinions basée sur la théorie de l’Appraisal, dans laquelle des groupes adjectivaux sont extraits dans l’optique de réaliser des tâches comme la classification. Enfin, il passe en revue différentes approches utilisées pour le concours de classification DEFT’07 et les travaux inspirés par la théorie de l’Appraisal dans le domaine du traitement automatique des langues.
  • Voir l'article entier

Article 1282

  • Titre : Intégration des fautes dans un modèle de programmation pour réseaux mobiles
  • Corentin Mehat (LIP6)
  • Olivier Marin (LIP6)
  • Fréderic Peschanski (LIP6)
  • Résumé : Nous proposons un langage de spécification dont le support d'exécution sont des périphériques mobiles utilisant un environnement pervasif à base de réseaux mobiles ad-hoc. Nous décrivons les problématiques de communication de groupe et de détection de fautes pour ce contexte où les canaux de communication ne peuvent pas être supposés fiables. Cette approche permet de traiter la mobilité des périphériques comme une question de tolérance aux fautes.
  • Voir l'article entier

Article 1292

  • Titre : Interrogations de moteurs de recherche par des requêtes formulées en langage naturel
  • Ludovic Bonnefoy (Centre d'Enseignement et de Recherche en Informatique d'Avignon)
  • Romain Deveaud (Centre d'Enseignement et de Recherche en Informatique d'Avignon)
  • Eric Charton (Laboratoire Informatique d'Avignon)
  • Résumé : La difficulté de la tâche d’interprétation de requêtes en langue naturelle réside dans la transformation d’une phrase grammaticale en une requête pertinente pour interroger un système de RI ou d’extraction d’information. Dans cet article, nous présentons un système d’extraction d’information associé à un analyseur de requêtes, dédié à l’analyse et à l’interprétation de questions factuelles formulées en langue naturelle issues de la campagne TREC. Notre système fournit des réponses en exploitant un système composé d’une ressource ontologique et sémantique issue d’un corpus encyclopédique, dont on aura extrait les réponses candidates à l’aide de méthodes statistiques.
  • Voir l'article entier

Article 1322

  • Titre : Questions-réponses dans le domaine médical : une approche sémantique
  • Asma Ben Abacha (LIMSI)
  • Résumé : Ce travail porte sur l’étude de méthodes permettant de répondre à des questions formulées en langue naturelle dans le domaine médical. En premier lieu nous étudions dans quelle mesure les méthodes utilisées en domaine ouvert sont transposables à ce domaine. Dans un second lieu, nous proposons une nouvelle approche, plus adaptée à ce domaine de spécialité. Cette approche se base sur (i) des ressources sémantiques disponibles en domaine médical (le métathésaurus et le réseau sémantique d’UMLS) et (ii) une analyse syntaxique et sémantique de la question et des corpus médicaux afin de les représenter sous forme de graphes sémantiques. Les avantages soulignés dans cette première étude sont les apports en termes d’expressivité et d’évolutivité pour le système de questions-réponses mais aussi l’amélioration de la précision des réponses.
  • Voir l'article entier

Article 1332

  • Titre : Modélisations de réseaux bayésiens de très grandes tailles
  • Lionel Torti (LIP6)
  • Pierre-Henri Wuillemin (LIP6)
  • Résumé : La représentation de connaissances incertaines est un problème important dans le domaine de l’intelligence artificielle. Les réseaux bayésiens proposent une solution intéressante pour de nombreuses raisons théoriques et pratiques mais ont le désavantage d’être difficiles à créer autant qu’à maintenir. Dans cet article, nous comparons trois formalismes qui tentent de répondre à ces problèmes en enrichissant les réseaux bayésiens avec des notions issues des paradigmes orientés objets et de la logique du premier ordre. Nous verrons que ces propositions fournissent de nouveaux outils de modélisation des réseaux bayésiens, mais posent de nouveaux problèmes propres aux réseaux de grande taille.
  • Voir l'article entier

Article 1352

  • Titre : Dynamique critique des véhicules à deux roues motorisés : Modélisation et stabilisation LQG du mouvement de roulis
  • Hamid Slimi (Laboratoire IBISC de l'Université d'Evry)
  • Hichem Arioui (Laboratoire IBISC de l'Université d'Evry)
  • Lydie Nouveliere (Laboratoire IBISC de l'Université d'Evry)
  • Saïd Mammar (Laboratoire IBISC de l'Université d'Evry)
  • Résumé : Ce papier est consacré à la modélisation et à la stabilisation de véhicules de types 2-roues et plus particulièrement au mouvement de roulis d'une moto. Le modèle proposé inclut les forces de contact pneumatique-chaussée et la stabilisation par mouvement d'inclinaison du conducteur. Le modèle conducteur-moto est alors stabilisé en utilisant la commande LQ. Un modèle est finalement ajouté afin d'assurer le suivi d’un signal de référence. Les résultats de simulation présentés dans cet article montrent l'efficacité de l'approche.
  • Voir l'article entier

Article 1362

  • Titre : Patterns architecturaux pour la conception de solutions IPTV
  • Feru Vincent (Orange Labs)
  • Alex Menai (Orange Labs)
  • Gaël Fromentoux (Orange Labs)
  • Yves Le Traon (Telecom Bretagne)
  • Résumé : L'objectif de ce papier est de présenter l'intérêt des patterns comme outil de conception d'architectures télécoms convergentes (fixe-mobile). L'approche par les patterns, telle que nous la concevons, est issue des travaux de Christopher Alexander [2,3] où chaque pattern est un élément de conception identifié, réutilisable, qui apporte une solution simple et éprouvée à un problème récurrent. Ce papier s'intéresse particulièrement au chantier de la commande des services de contenus (IPTV) accessibles sur accès fixes et mobiles. La commande est l'ensemble des processus permettant les interactions clients-fournisseurs mais aussi de contrôler le support procuré par des réseaux de transport (e.g. IP, Accès mobile, xDSL) afin d'acheminer et de délivrer les services. La démarche pour obtenir un pattern générique applicable aux cas fixe et mobile y est présentée ainsi que des perspectives d'amélioration de l'exploitation des patterns par leur association à des critères métier objectifs.
  • Voir l'article entier

Article 1372

  • Titre : Modèles de Markov Cachés et Modèle de Longueur pour la Reconnaissance de l’Ecriture Arabe à Basse Résolution
  • Fouad Slimane (Université de Fribourg, Suisse)
  • Slim Kanoun (Ecole Nationale d’Ingénieurs de Sfax, Tunisie)
  • Rolf Ingold (Université de Fribourg, Suisse)
  • Adel M. Alimi (Ecole Nationale d’Ingénieurs de Sfax, Tunisie)
  • Jean Hennebert (Haute école spécialisée de Suisse occidentale)
  • Résumé : Nous présentons dans ce papier un système de reconnaissance automatique de l’écriture arabe à vocabulaire ouvert, basse résolution, basé sur les Modèles de Markov Cachés. De tels modèles sont très performants lorsqu’il s’agit de résoudre le double problème de segmentation et de reconnaissance pour des signaux correspondant à des séquences d’états différents, par exemple en reconnaissance de la parole ou de l’écriture cursive. La spécificité de notre approche est dans l’introduction des modèles de longueurs pour la reconnaissance de l’Arabe imprimé. Ces derniers sont inférés automatiquement pendant la phase d’entraînement et leur implémentation est réalisée par une simple altération des modèles de chaque caractère composant les mots. Dans notre approche, chaque mot est représenté par une séquence des sous modèles, ces derniers étant représentés par des états dont le nombre est proportionnel à la longueur de chaque caractère. Cette amélioration, nous a permis d’augmenter de façon significative les performances de reconnaissance et de développer un système de reconnaissance à vocabulaire ouvert. L’évaluation du système a été effectuée en utilisant la boite à outils HTK sur une base de données d’images synthétique à basse résolution.
  • Voir l'article entier

Article 1382

  • Titre : Design of MIMO antennas for Ultra-Wideband Communications
  • Ali Imran Najam (LCIS, Grenoble INP)
  • Yvan Duroc (LCIS, Grenoble INP)
  • Smail Tedjini (LCIS, Grenoble INP)
  • Résumé : UWB radio has proved itself a suitable candidate for its low power and low cost design. However, very low transmitted power in UWB systems limits the applications to short range or to moderate data rate. Therefore, it is crucial to find some solution that will make the best possible use of radiated and received power, for the feasibility and future commercial success of UWB communication systems. In this context, research is carried out and MIMO has been found one of the best solutions. MIMO technique in UWB systems will improve link robustness of UWB or data rate. But some challenges arise in designing of the MIMO antenna systems for UWB applications. These challenges include the reduction of the mutual coupling and the correlation between the elements of the antenna systems. In this article, antenna systems proposed in the literature as well as by authors have been discussed. Some techniques have been presented to face these challenges. Finally, proposed UWB-MIMO antenna systems in the frequency band of 3.1 - 10.6 GHz are efficient in terms of diversity, radiations, size etc.
  • Voir l'article entier

Article 1412

  • Titre : La correction temporelle du bruit de moustique
  • Claire Mantel (Gipsa-Lab / STMicroelectronics)
  • Patricia Ladret (Gipsa-Lab)
  • Thomas Kunlin (STMicroelectronics)
  • Résumé : Actuellement, l'utilisation de traitements temporels pour améliorer la qualité est rare, y compris pour les vidéos. Ceci est en grande partie lié à l'espace mémoire et au temps de calcul qu'ils nécessitent. Dans cet article, nous traitons d'un bruit de compression dont l'aspect temporel est primordial: le bruit de moustique. Sa nature à la fois spatiale et temporelle est détaillée dans une première partie, puis les différents traitements disponibles dans la littérature sont exposés. Un correcteur spatio-temporel et indépendant de la compression est ensuite proposé. Enfin, l'intérêt d'un traitement spatio-temporel par rapport à un spatial est montré à travers différents tests d'évaluation
  • Voir l'article entier

Article 1422

  • Titre : Algorithme de décodage des codes correcteurs d'erreur
  • Pierre Louis Cayrel (Univ. Paris 8)
  • Rafael Fourquet (Univ. Paris 8)
  • Résumé : Rappels concernant les codes correcteurs d'erreur, présentation de l'algorithme de Kabatianski Tavernier
  • Voir l'article entier

Article 1462

  • Titre : Approche de prédiction des liens dans les réseaux sociaux : application au calcul de recommandations
  • Nasserine Benchettara-Hamimed (LIPN-Université Paris 13)
  • Résumé : Dans ce travail, nous nous intéressons au problème de la prédiction de liens dans des réseaux sociaux dynamiques. Un réseau social peut être représenté par un graphe où les noeuds représentent des individus et les liens les relations entre ces derniers. Un réseau social est dit dynamique s’il peut être représenté par une séquence de graphes statiques G =< G1,G2, ... ,Gt > où Gi est un graphe décrivant l’état du réseau à l’instant i. Le problème de prédiction de liens consiste à prédire l’apparition de nouveaux liens dans le graphe Gi+1 à partir de l’analyse de la séquence G. Dans ce travail, nous étudions le cas des réseaux décrits par des graphes bipartis de la forme Gi =< V1i ; V2i ; Ei>. La projection d’un graphe Gi sur l’ensemble V1i est donnée par le graphe G1i =< V1i,E1i> où deux noeuds u,v appartiennent à V1i sont liés si ils sont reliés à au moins n noeuds communs de V2i dans le graphe Gi. La projection sur l’ensemble V2i se fait d’une manière analogue. Dans cette étude, la tâche de prédiction de liens est vue comme une tâche d’apprentissage automatique, où les exemples d’apprentissage sont construits à partir des caractéristiques topologiques extraites des graphes initiaux. Nous expérimentons notre approche dans le cadre de calcul de recommendations dans un site de vente de musique en ligne. La matrice d’achats effectués sur ce site est utilisée pour construire le réseau à analyser. Les données sont fournies par un partenaire industriel dans le cadre d’un projet de recherche ANR. Les premiers résultats rapportés dans cet article montrent la validité de l’analyse topologique des réseaux sociaux. Les principaux enseignements de nos expérimentations sont aussi décrits et commentés.
  • Voir l'article entier

Article 1482

  • Titre : Modèle et environnement « métier » orienté intentions pour la conception de scénarios pédagogiques
  • Valérie Emin (Laboratoire Informatique de Grenoble)
  • Résumé : Cet article présente le modèle conceptuel ISiS (Intentions-Strategies-interactional Situations), élaboré pour structurer la démarche de conception de scénarios pédagogiques utilisant les technologies numériques par des enseignants-concepteurs non spécialistes en informatique. Cette proposition repose sur l’expression et la formalisation des intentions du concepteur en distingue explicitement les dimensions intentionnelles, stratégiques, tactiques et opérationnelles dans le processus de conception. ISiS a également pour but de favoriser la réutilisation et le partage des scénarios pédagogiques entre concepteurs. Nous présentons également une première version de ScenEdit, un environnement de conception de scénarios pédagogiques dédié aux enseignants-concepteurs s’appuyant sur ce modèle.
  • Voir l'article entier

Article 1512

  • Titre : Classification de Genre Vidéo basé sur l’audio
  • Mickael Rouvier (LIA)
  • Georges Linarès (LIA)
  • Driss Matrouf (LIA)
  • Résumé : Dans un contexte mondial de croissance rapide des collections vidéos accessibles sur Internet, la classification de genre vidéo devient une tâche difficile. Dans ce papier, nous présentons une nouvelle méthode pour l'indentification de genre vidéo basée sur l'analyse du contenu audio. Notre approche repose sur la combinaison de bas et haut niveau de feature audio. Nous étudierons la capacité discriminative des paramètres liée à l'instabilité acoustique, l'interactivité du locuteur, la qualité de la parole et la caractérisation de l'espace acoustique. L'indentification de genre est effectuée sur ces paramètres en utilisant un classifieur SVM. Les expérimentations sont conduites sur un corpus composé de cartoons, films, actualités, publicités et musiques sur lequel nous obtenons, pour la meilleure configuration, un taux de classification de 91%.
  • Voir l'article entier

Article 1522

  • Titre : Détection de mots hors-vocabulaire par combinaison de mesures de confiance de haut et bas niveaux
  • Benjamin Lecouteux (Laboratoire Informatique d'Avignon)
  • Georges Linarès (Laboratoire Informatique d'Avignon)
  • Benoit Favre (ICSI Berkeley, USA)
  • Résumé : Cet article aborde le problème de la détection des mots hors-vocabulaire dans le cadre des Systèmes de Reconnaissance Automatique de la Parole (SRAP) continu grand vocabulaire. Nous proposons une méthode inspirée par les mesures de confiance, qui consiste en l'analyse des sorties du système afin d'y détecter automatiquement les erreurs liées aux mots hors-vocabulaire. Cette méthode combine différents paramètres basés sur l'acoustique, la linguistique, la topologie du graphe de décodage ainsi que sur des paramètres sémantiques. Nous évaluons séparément chacun de ces paramètres et nous estimons leur complémentarité. Les expériences ont été menées sur un corpus d'émissions radio issu de la campagne ESTER. Les résultats montrent des performances intéressantes en condition réelle : nous obtenons un taux de détection de mots hors vocabulaire de 43%-90% pour 2.5%-17.5% de fausse détection.
  • Voir l'article entier

Article 1532

  • Titre : Identification Musicale à l’aide de Technologies Vocales
  • Hugo Mauchrétien (CERI)
  • Georges Linarès (CERI)
  • Corinne Fredouille (CERI)
  • Tania Jiménez (CERI)
  • Résumé : L’identification musicale est un processus d’appariement d’un extrait de musique à un morceau de musique connu. Les applications d’un tel système sont multiples, comme la protection des droits d’auteurs, ou plus simplement, permettre à un utilisateur d’identifier le morceau de musique qu’il écoute. Du fait des intérêts que peut présenter une telle application, plusieurs approches ont déjà été étudiées, le plus généralement basée sur des méthodes de reconnaissance des formes. Nous proposons d’utiliser les techniques de traitement de la parole, efficaces dans des environnements difficiles. Notre approche est basée sur les mixtures de gaussiennes (GMM), et les modèles de Markov cachés (HMM) qui sont des concepts très usités dans les domaines de traitement de la parole. Nous avons appliqué à la musique une méthode de segmentation du type regroupement en locuteurs. Les résultats de nos travaux sont convainquants puisque notre système est résistant aux bruits et à la compression du signal. Avec 25 dB de bruit, nous obtenons 100% d’identification correcte en une seconde de signal. En encodant nos morceaux en MP3 à 56 kbits, nous obtenons un taux d’identification de 100% avec trois secondes de signal.
  • Voir l'article entier