Séminaires

Mise à jour le   22/04/2024

Machine Learning Based Surrogate Models of Electronic Devices and Circuits

Riccardo Trinchero, Enseignant-Chercheur à Politecnico di Torino, Italie

16/04/2024

This talk aims to emphasize the crucial role of cutting-edge data-driven modeling techniques in constructing compact and fast-to-evaluate surrogate models of electronic devices and circuits for stochastic analysis and optimization purposes. Initially, several modeling techniques, such as least-squares regressions, kernel regression, Artificial Neural Networks, and advanced solutions for vector-valued problems, will be briefly presented to highlight their advantages, capabilities, and limitations. Subsequently, in the second part of the presentation, the effectiveness and strength of these techniques will be showcased through applications in uncertainty quantification, optimization, and parametric modeling across various test cases.


 of the ongoing research activities in the Department of Communications and Information Technology, at Military Technical Academy of Bucharest
 

Angela DIGULESCU-POPESCU, Maître de conférences, Académie Technique Militaire de Bucarest Ferdinand I, Roumanie

06/12/2023


Visualisation et mesure du champ électromagnétique par thermographie

Daniel PROST, Ingénieur de Recherche, ONERA, Toulouse

8/12/2021

La thermographie des champs électromagnétiques (EM) permet une visualisation, une cartographie, éventuellement une mesure, du champ EM et, comme son nom l’indique, est basée sur la mesure de l’échauffement d’un capteur placé dans le champ. Brevetée par l’ONERA sous la dénomination EMIR (EM InfraRouge) en 1998, elle est utilisée pour des études en Compatibilité EM (détection de fuites EM), pour l’analyse d’objets rayonnants, de métamatériaux, et pour la caractérisation de sources antennaires.

Après une revue générale, nous présenterons des améliorations de cette méthode et notamment i) La mesure du champ magnétique, et non plus seulement du champ électrique; ii) Le passage à une mesure vectorielle du champ, c’est-à-dire la possibilité de déterminer la direction d’un champ à polarisation rectiligne, et le taux d’ellipticité dans le cas d’une polarisation circulaire; iii) La possibilité d’utiliser une simple caméra optique (et non infrarouge), par le truchement de la thermofluorescence, propriété qu’ont certains fluorophores de voir leur intensité de fluorescence varier avec la température, et donc ici avec le champ EM; iv) L'apport du filtrage et du traitement numérique des images pour l'amélioration du SNR, et l'obtention du champ lointain à partir d'images en champ proche.

Cette méthode est aujourd'hui industrialisée, et un appareil de mesure intégré ne nécessitant pas d’installation spécifique (et notamment pas de chambre anéchoïde) sera prochainement commercialisé par la société ANYFIELDS. Nous en présenterons les principales caractéristiques à l'issue de ce séminaire.


Stockage d’informations sur ADN

Dominique Lavenier, DR CNRS, IRISA/Inria, Équipe GenScale, Rennes

18/11/2021

L’exposé posera le principe du stockage de données numériques sur des molécules d’ADN. Il décrira les différentes étapes du processus, tant numériques que biotechnologiques, et soulignera les différents enjeux et perspectives du domaine. L’exposé présentera également le projet dnarXiv, piloté par GenScale, qui a pour objectif de développer une chaîne de traitement prototype pour tester et expérimenter diverses alternatives au stockage d’informations sur ADN.


On Creating Secret Unknown Ciphers

Wael ADI, Emeretus Professor, Institute of Computer and Network Engineering, Technishe Universität Braunschweig, Germany

18/10/2021 

The talk presents the concept of the so called "Secret Unknown Cipher" SUC developed by the author a decade ago. In the last 10 years, many creation concepts and classes of ciphers were developed to practically create such ciphers. Few cipher classes and approaches towards creating such non-perfect SUCs in future non-volatile FPGA technologies are presented and discussed.


Learning to Estimate and Detect in Communication Systems

Duy H. N. Nguyen, Professeur invité, Senior Member, IEEE, Assistant Professor at the Department of Electrical and Computer Engineering, San Diego State University

16/01/2020 


Estimation and detection are among the most primitive statistical signal processing tasks in communication systems. The advancements of communication theory in the past few decades have effectively resolved these tasks with rigorous analysis and predictable performance guarantee, especially in Gaussian channels. This is perhaps the reason why the field of communication theory was reluctant in embracing the booming of machine learning. Nevertheless, there have been a lot of interests and publications in the applications of machine learning for communication systems in the past few years. In this talk, I will revisit some of the basics in estimation and detection for communication systems and examine whether machine learning techniques would be the right tools to perform these tasks, especially in non-Gaussian channels. I will then present some of our recent and ongoing research works in this topic.


Synthèse de haut niveau pour des architectures parallèles
L’approche fonctionnelle du modèle polyédrique

Patrice Quinton, Professeur émérite, Ecole normale supérieure de Rennes

10/10/2019
 

Le langage Alpha a été inventé il y a maintenant 30 ans par Christophe Mauras, pour permettre la représentation d’algorithmes à l’aide d’équations récurrentes, et leur transformation en architectures parallèles. Ce langage, développé ensuite à Rennes et à CSU (Colorado State University) a été le support de recherches fructueuses sur les techniques de parallélisation connues sous le nom de « modèle polyédrique ». Au cours de cet exposé, je présenterai les principes de ce langage et je montrerai comment il peut être utilisé pour la génération de circuits parallèles. J’illustrerai mon exposé avec des exemples produits par le logiciel MMAlpha.


Modèles stochastiques et traitements statistiques des images radar

Alain HILLION, Professeur Emérite à l’IMT-Atlantique

28/09/2018


Harmful algal blooms and mathematical modeling

Tri NGUYEN-QUANG, Professeur à l’Université de Dalhousie au Canada

31/08/2018


L’ idée est de partager nos travaux actuels sur cette problematique mondiale, des conceptions fondamentales jusqu’aux idées permettant d’utiliser les méthodes de modélisation pour avancer dans les études de détermination de ‘thresholds’ du phénomène. La question de correlation entre la technique d’analyse d’images et les signaux capteurs est émergente dans l’équipe de Dalhousie. Il s’agit ici de communiquer et échanger des conceptions sur la méthode statistique de traitement de type ‘machine learning’.


A new zero trust security model to address today’s security challenges

Mohammad Hammoudeh, Enseignant-chercheur à l’Université Métropolitaine de Manchester

7/06/2018


Following the OPM data breach, the U.S. House of Representatives’ Committee’s report promoted the zero trust model as an alternative security approach. It is expected that many countries will follow the US lead in the adoption of this security model. Since 2010, we have seen very few commonly accepted models to zero trust enterprise security, the most noticeable of which are the Zero Trust Model introduced by Forrester, and BeyondCorp, introduced by Google. This talk will start by explaining how zero trust aims to address the flaws of current security models. Then, it will briefly outline the blueprint of a new model of zero trust and show how formal analysis can be used to prove its properties.


Cellular Planning and Optimization for 5G Heterogenous networks

Upena DALAL, Professeur à l’Institut SVNIT, Sardar Vallabhbhai National Institute of Technology, Surat India

02/03/2018
 

Heterogeneous networks include femtocells, picocells, microcells, macrocells etc. It deals with different types of wireless networks like, WiFi, LTE, WSN above which Internet of things is implemented. It is required to have the cellular planning in order to eliminate interference and optimize power requirements. There are various ways we can analyze the cellular division theoretically which may be converted into practical deployment of tower or access point. Planning helps capacity enhancement and better spectral management as well.
The evolution of smartphones has navigated the user's concern towards more mobile based services and utilities including conversational services, internet, navigation services, personal networking, automation and control using various applications, sensing applications, media etc. The cellular networks need proper planning, roll-out and optimization. Various techniques, mathematical models, and tools are used for attaining the common minimum requirements of optimization between coverage, capacity and cost. Some of the soft computing techniques are also used.

Few points which are to be covered:

  1. Deployment strategies for LTE and LTE-A

  2. Heterogeneous network architectural studies

  3. Quantitative study on deployment algorithms

  4. Optimization and its impact on Radio networking dimensioning

  5. Few mathematical models for division of area for cellular planning along with co-operative communication support


One-Dimensional Stochastic Differential Equations: A brief introduction

Hans-Jürgen ENGELBERT, Professeur à l’Institute of Mathematics - Friedrich Schiller University, Iéna, Allemagne

27/02/2018
 

After recalling classical ordinary differential equations (ODEs), there will be briefly discussed the case of autonomous ODEs in one dimension with only measurable right-hand side. This turns out to be some counterpart of the approach to stochastic differential equations (SDEs) which will be in the focus of the present talk. Then, a small historical review will be given about Wiener process and SDEs driven by it. Thereafter, one-dimensional homogeneous SDEs without drift and with drift will be solved by the tools of random time change and space transformation. For only measurable diffusion and drift coefficients, there will be provided necessary and sufficient conditions for existence as well as for existence and uniqueness of solutions. Some extensions to SDEs with generalized drift and non-homogeneous SDEs are also discussed. The talk concludes with an overview of some further developments of the theory of SDEs.


La méthode de Blockchain

Alexandre HASSLER, actuaire certifié fondateur de l’insugetech LYON RE

06/02/2018

En l’espace de quelques mois, la Blockchain a occupé une grande partie de l’écosystème médiatique et technologique. Souvent présentée uniquement comme un système informatique décentralisé et exclusivement assimilée au réseau Bitcoin, il s’agit d’un écosystème en vérité beaucoup plus large pouvant se transposer à bien d’autres domaines que l’univers bancaire et financier.
Dans le cadre du séminaire de l’IBNM, Alexandre HASSLER, Actuaire Certifié et Fondateur de l’Insurtech LYON RE, viendra présenter les apports, les enjeux et les limites de la Blockchain au travers d’exemples concrets, et montrer comment tirer partie de celle-ci à travers une analyse fine du paradigme économique et politique qu’elle introduit.


Visual Data Mining: Approches coopératives et semi-interactives pour le traitement de données massives et temporelles

Lydia BOUDJELOUD, Maître de Conférences à l’IUT de Metz

18/01/2018

La présentation s'articule autour d'approches coopératives combinant des méthodes interactives de visualisation et des méthodes automatiques de fouille de données en non supervisé (sélection de variables, détection d'outliers, clustering, biclustering,...) pour l'extraction de connaissances à partir de données. La plupart des méthodes de fouille de données existantes fonctionnent de manière automatique où l'utilisateur n'est que peu impliqué dans le processus.
De plus, elles doivent pouvoir traiter des données qui sont non seulement nombreuses mais également ordonnées dans le temps. Ces données apparaissent sous la forme de flux et de volumes très importants.
Nous verrons dans la première partie de la présentation comment impliquer de manière plus significative l'utilisateur dans le processus de fouille afin d'améliorer sa confiance et sa compréhension des modèles ou résultats obtenus. Ceci, à travers un bilan d'approches combinant des méthodes interactives de visualisation et des méthodes automatiques de Sélection de variables, de Clustering, de Biclustering, et de détection d'outlier pour l'extraction de connaissances à partir de données de grande taille et temporelles.
Nous aborderons en seconde partie de la présentation, les nouveaux challenges pour ces méthodes, qui doivent pouvoir traiter non seulement des quantités de plus en plus importantes de données mais aussi des données qui peuvent évoluer dans le temps.


Évaluation de performances des réseaux de capteurs sans fil: Méthodes et outils

Kechar BOUABDELLAH, Enseignante-Chercheuse, Université d'Oran, Algérie

30/11/2017

La vérification et la validation des travaux de recherche liés à la conception et au développement des protocoles et algorithmes de communication dans le domaine de réseaux de capteurs sans fil (RCSF) est un défi majeur dû à la diversité des méthodes et outils disponibles et leurs choix appropriés. Car les solutions envisagées doivent être vérifiées avant d'être déployées dans le monde réel, soit en utilisant des simulateurs ou des émulateurs, soit par des expérimentations en employant des bancs d'essai. La plupart des méthodologies d'évaluation fournis par les chercheurs sont évaluées par une analyse mathématique suivie soit par simulation, soit par validation expérimentale. La question qui se pose est de savoir quelles méthodes utilisées et quels outils employés pour la validation de la solution proposée pour améliorer la réussite d'un projet de recherche dans le domaine des RCSF.

L'objectif de ce séminaire est de présenter et classifier les différentes méthodes d'évaluation de performances dédiés aux RCSF (modèle analytique, simulation, émulation, band d'essai, expérimentation réaliste) avec leurs mérites et démérites correspondantes, ainsi que les outils d'implémentations qui interviennent dans le processus d’évaluation (environnements de simulation, systèmes d'exploitation, langages de programmation, ...etc).

Nous présentons également quelques recommandations et tendances dont l'objectif est de fournir une validation cohérente et flexiblepour améliorer considérablement les résultats issus de la recherche dans les RCSF. A la fin de ce séminaire, nous présentons quelques travaux de Master/Doctorat réalisés à titre illustratifs.


Modeling Dynamical Systems from their Frequency Response Measurements in the Loewner Framework

Sanda LEFTERIU, Enseignante-Chercheuse à l'Ecole des Mines de Douai

17/11/2017

The problem of modeling dynamical systems from frequency response measurements is of interest to many engineers. In the area of control, it can be regarded as a system identification problem. This talk will detail the Loewner framework as an alternative to the Vector Fitting technique, which for multi-port systems, proves to outperform it. The main focus will be the presentation of the framework in the general case, with extensions to parametric systems and bilinear systems discussed briefly. An analysis of the convergence of the Vector Fitting iterative algorithm will also be shown.


Technological Challenges and Applications of UAVs

Luis MEJIAS ALVAREZ, Enseignant-Chercheur, QUT (Queensland University of Technology de Brisbane), Australie

28/03/2017

Current applications of Unmanned Aerial Vehicles (UAVs) range from precision agriculture, search and rescue, infrastructure inspection to parcel delivery and marine mammal monitoring. Each of these applications present their challenges in terms of autonomy and data processing. In this talk, I will present several examples of UAV applications outlining the main subsystems involved in them, paying particular attention to the current challenges in real-time onboard processing and outdoor/indoor navigation.


Physical Layer Security in Wireless Communications

Telex Magloire NGATCHED NKOUATCHAH, Associate Professor, Grenfell Campus, Memorial University of Newfoundland, CANADA

4/10/ 2016

Wireless communications are particularly vulnerable to security attacks due to the broadcast nature of wireless channels. Traditionally, security issues have been dealt with at upper-layers of the protocol stack using cryptographic techniques. Although cryptographic methods have proven to be efficient, they rely on the assumed limited computing capabilities of the eavesdroppers and exhibit vulnerabilities in term of the inevitable secret key distribution as well as management. Introduced by Wyner and based on the wiretap channel model, physical layer security (PLS) has recently become an emerging technique to complement and significantly improve the communication security of wireless networks. Unlike cryptographic approaches, PLS exploits the physical layer properties of the communication system, such as thermal noise, interference, and the time-varying nature of fading channels to maximize the uncertainty concerning the source message at the eavesdropper. The presentation will introduce the fundamentals of PLS and discuss multiple approaches currently investigated to achieve security in the physical layer. These include preprocessing schemes (coding, key generation, artificial noise), signal processing schemes, game theoretic approaches, cooperative communications schemes, and stochastic geometry approaches.


Réseaux de neurones binaires et applications

Vincent Gripon, Chargé de Recherche à Télécom Bretagne

29/09/2016 

Les processus de stockage de l'information mentale restent essentiellement inconnus. De nombreux modèles existent et sont discutés selon leur plausibilité biologique ou leur performances. Nous montrons comment, en partant de quelques règles simples tirées de la littérature neurobiologique (parcimonie, compétition, organisation structurée), il est possible d'imaginer des modèles se comparant avantageusement à l'état de l'art. Nous discutons également des applications possibles de ces modèles dans des systèmes d’ingénierie.


Statistical Machine Learning Methods for Handling High Dimensional Data

Ernest Fokoué, Professor, R.I.T. (Rochester Institute of Technology)

21/06/2016

This lecture intends to give the audience a cursory tour of some of the most common tools used for learning the patterns underlying high multidimensional arrays of data. I will first focus on the ubiquitous two dimensional array (matrix) setting with n denoting the sample size or number of p dimensional vectors under consideration, and I will touch on some of the most recent statistical and computational methods for dealing with both the n>>> p and the n <<< p scenarios. Among other things, I will talk about the techniques of regularization/penalization, selection and projection that help circumvent the inferential and prediction challenges inherent in high dimensional regression, classification and clustering. I will also cover ensemble techniques like random forest and random subspace learning in general that have proved formidable in mitigating many learning challenges arising in high dimensional predictive modeling. Throughout this presentation, the concept of “high” will remain relative, typically approached from pure commonsense but also with respect to the computational architecture ultimately used for implementing the devised methods. Indeed, some of the solutions to the high dimensional data modeling conundrum will come from making the most of high performance parallel computation now available through multicore CPU architectures now standard on all our desktop computers, or Graphics Processing Units (GPU) that can be easily added or even clusters of computers more and more commonly used by statisticians.


Traitement modulaire de l’information : une approche flexible

Ismail BISKRI, Professeur en Mathématiques et Informatique à l’Université du Québec à Trois-Rivières

21/04/2016

Avec les travaux récents en humanités numériques, l’hypothèse voulant qu’un expert d’un domaine devienne dépositaire d’un système conceptuel, pouvant être mis en œuvre et pouvant être mis à jour de temps à autre pour être adapté aux nouveaux besoins, s’avère non productive, vu la nature sémiotique complexe du contenu d’un document, qui permet une multiplicité de points de vue dans sa lecture et son interprétation, ainsi que dans les informations et les connaissances qu’il faut y identifier. Dans notre perspective, notre hypothèse est que toute analyse doit être perçue comme un agencement particulier, dans une chaîne de traitement, de modules informatiques pourvus d’une ou plusieurs fonctionnalités pour assister un ingénieur ou un simple utilisateur dans leur quête d’informations ou de connaissances. La chaîne de traitement doit être l’aboutissement d’un véritable processus de découverte qui nécessite un va et vient constant entre description théorique de la solution, implémentation informatique, expérimentation et raffinement de la description théorique de la solution, à la lumière des résultats de l’expérimentation. Ce processus est nécessairement récursif. L’implantation informatique de la chaîne de traitement doit reposer sur un modèle flexible.