Nous nous intéressons à un certain nombre de problèmes impliquant de prendre en compte le système d’interaction plongé dans l’espace de l’utilisateur, et où la réalité physique de l’utilisateur intervient comme élément à part entière de l’interaction. Dans un tel contexte, on peut être amené à toucher, prendre, voire même à interagir à distance avec le système. Nous nous sommes par exemple intéressés aux problèmes d’occlusion, classiques pour l’interaction tactile; un modèle a été proposé, permettant d’adapter l’interaction pour limiter les effets de l’occlusion. Pour pallier certaines limitations de l’interaction tactile, une proposition matérielle a été formulée, utilisable avec les technologies tactiles basées vision, permettant à l’utilisateur de disposer d’une sorte de “crayon” orientable simplement pour accéder à telle ou telle fonctionnalité plus rapidement que via les menus standards. Un système complet de CAO avancé a été proposé, dans le contexte d’interaction ‘above the table’: cet outil préfigure des systèmes de maquettage virtuel ou l’on peut éditer de la géométrie à la fois rapidement via le geste sans contact, ou précisément via l’interaction tactile, suivant ce qui est souhaité. Sur le geste d’interaction sans contact, nous avons également montré qu’il est possible de différencier le point-to-select du point-to-move via une catégorisation dynamique simple du geste utilisateur, permettant ainsi dans un contexte de captation simple, de réaliser une fonctionnalité qui nécessite classiquement la présence d’un interrupteur ou d’un bouton.