Portrait d’Andrea Dunbar

7/08/2020

Andrea Dunbar - Intelligence Artificielle Edge & Vision - CSEM

Portrait d’Andrea Dunbar - cheffe de secteur Intelligence Artificielle Edge & Vision - CSEM

Membre du jury du Prix BCN Innovation
Enseigne la digitalisation à l’EPFL

Andrea Dunbar est née à New Hampshire, Etats-Unis, où elle a vécu les dix premières années de sa vie avant de s’établir près de Londres. A 18 ans, elle prend une année sabbatique pour voyager aux Etats-Unis. Elle traverse tout le pays en voiture et pose ses valises quelques mois au Guatemala pour apprendre l’espagnol. De retour en Grande-Bretagne, elle commence des études de physique à St Andrews en Ecosse et y décroche son Bachelor.

Elle enchaîne avec une expérience comme courtière certifiée à la City de Londres, puis revient à la physique et achève un doctorat au « Trinity College » à Dublin sur des polaritons de cavité, un système d’états mixtes lumière-matière. C’est là qu’elle entre en contact avec l’EPFL grâce aux échantillons échangés. Après plusieurs visites sur le site de l’EPFL, elle décide en 2003 de déménager à Lausanne pour travailler à l’EPFL en tant qu’assistante de recherche, et elle en profite pour apprendre le français. Elle se spécialise dans le domaine des cristaux photoniques. En 2007, on lui propose de rejoindre le CSEM, et en 2017, elle est nommée cheffe du secteur « Embedded Vision ». Ce secteur, aujourd’hui renommé « Edge IA & Vision », est un groupe multidisciplinaire (data science, optique, imageurs, logiciels, architecture système, traitements de données) composé de 16 personnes.

Quels sont les principaux défis que vous devez relever dans l’Intelligence artificielle Edge et la Vision » ?

Il faut savoir que nous travaillons du point de vue traitement des données au niveau du capteur, c’est-à-dire localement et non à distance sur le cloud. Toute l’intelligence est embarquée près du capteur, ce qui nous demande de répondre à plusieurs défis :

  • Créer des architectures d'algorithme d'intelligence artificielle taillés pour leur utilisation dans une problématique industrielle pertinente (par exemple, des systèmes très précis, de haute vitesse (faible latence), de faible puissance, et sécurisés).
  • Combiner ces algorithmes avec des capteurs (vision, audio, etc.) et de la micro-informatique (processeur et communication).

Un premier exemple est celui de la solution Witness. Il s’agit d’une caméra entièrement autonome pouvant être fixée comme un autocollant. Cette première mondiale ouvre de nouvelles possibilités en matière de l’Internet des objets (IoT) et de capteurs de surveillance. Cette caméra IoT fonctionne à l’énergie solaire et est dotée d’un capteur d’images CMOS consommant moins de 700 µWatt.

La reconnaissance optique des caractères (lettres, chiffres) est aussi un bon exemple d’intelligence embarquée. Dans le domaine industriel, cela peut être extrêmement compliqué, notamment parce que les exigences de reconnaissance de >99.9% dans des environnements parfois extrêmes (poussières, saleté, fortes lumières, etc.) rendent très difficile la lecture des caractères d’identification des pièces produites.

Au sein du groupe, nous travaillons également sur des systèmes d’imagerie multispectrale. Ces systèmes permettent de voir les rayonnements plus finement et dans l’infrarouge, et donc l’information invisible pour l’œil humain. Ces systèmes peuvent notamment être utilisés dans la détection des cancers de la peau, le tri des déchets lors du recyclage ou le contrôle de qualité de la production des denrées alimentaires.

Aux systèmes de vision embarqués nous ajoutons souvent d’autres types de capteurs (par exemple, le son, la température et la détection de gaz comme le CO2). Grâce à ces mesures multidimensionnelles, on peut avoir plus d’information et surtout des systèmes plus robustes.

Je suis aussi convaincue que ces systèmes embarqués permettront de répondre à deux grands enjeux lors de la transmission de données :

  • Celui de la quantité d’énergie nécessaire pour transmettre les données : à titre d’exemple, un vidéo-clip de 3 minutes téléchargé 2 milliards de fois - comme la chanson Despacito - correspond à la consommation d’énergie de 40'000 maisons aux USA en une année. Etre capable de traiter les données localement permettrait une grande réduction de la consommation d’énergie.
  • Celui de la protection des données : une recherche sur Google passe par plusieurs centres de données localisés partout dans le monde, avec des lois de protection des données qui diffèrent dans chaque pays. Lorsque l’information est stockée localement, cette question ne se pose plus.

Vous travaillez en ce moment sur des projets dans le domaine de l’aviation ?

En effet, en particulier sur un système de vision qui permet de détecter la fatigue des pilotes. Il est déjà installé chez Honeywell, et nous sommes dans la phase de test. Les personnes en général ont de la peine à dire si elles sont fatiguées ou pas, et seule une mesure objective comme l'EEC (électroencéphalogramme) et l’ECG (électrocardiogramme) est fiable. Nous allons développer des algorithmes basés sur l’apprentissage automatique – le « machine learning » – ainsi qu’un système de vision assistée par ordinateur pour détecter en temps réel les signes de somnolence du pilote.

Dans un autre Cleansky projet aéronautique appelé PEGGASUS, qui compte parmi ses partenaires SWISS et ETHZ, nous avons développé un nouveau type d'interface homme‐machine (IHM) repoussant les limites de l'avionique du poste de pilotage et fournissant aux pilotes de nouvelles façons d'interagir avec le système de bord, afin qu'ils puissent s'adapter facilement et efficacement aux besoins changeants et complexes de l'avionique du 21ème siècle.

Nous espérons ainsi soutenir les pilotes dans leur quotidien, surtout lors des longs trajets où ils doivent rester attentifs pendant plusieurs heures alors qu’au décollage et à l’atterrissage de nombreuses tâches doivent être effectuées très rapidement, d’où l’importance d’optimiser les interactions entre les pilotes et le cockpit.

Quelles sont les collaborations que vous avez en ce moment dans la région ?

A Neuchâtel, nous travaillons avec G-ray pour améliorer la détection des rayons X dédiés aux mammographies. Grâce à nos technologies, G-Ray est à même d’offrir des solutions radiographiques plus sûres, plus lisibles et plus économique avec une imagerie couleur en haute résolution et à grande vitesse. D’autres projets de développement sont en cours.

Nous travaillons avec l’EPFL et la startup GlobalID afin de parvenir à identifier les personnes grâce à leurs veines via un système biométrique couplé à de l’imagerie. Le CSEM amène dans ce projet des compétences en optique, en électronique et en micro-informatique.

Nous avons aussi collaboré avec TESA-Hexagon pour une nouvelle génération de palpeurs pour des machines à mesurer tridimensionnelles (MMT) de très haute précision qui veille à la qualité des pièces mécaniques de haute précision telles que des aubes de turbine ou des prothèses implantables. C’est la technologie spaceCoder qui a permis au CSEM de développer un palpeur basé sur un microsystème de mesure opto-électro-mécanique construit autour d’un circuit intégré spécifique.

Que pensez-vous de l’écosystème d’innovation suisse et neuchâtelois ?

A mon avis, la politique suisse liée à l’innovation est très bien réfléchie. Les écoles interviennent à différents niveaux de la chaîne de valeur (recherche fondamentale ou appliquée). Les outils fédéraux tels qu’Innosuisse poussent à la collaboration entre le monde académique et le tissu industriel.
La concentration des acteurs de l’innovation à Neuchâtel est un vrai plus. La prise de contact est rapide et facile, sans parler de la qualité de vie exceptionnelle du canton. Je pense qu’il y a encore des efforts à faire pour valoriser toute l’attractivité et le potentiel de notre région.

 

Victoria Barras