"Une commande optimisée est essentielle pour un avenir automatisé fiable"

04 Mars 2022
Dans ses recherches sur les problèmes d'optimisation incertains, Daniel Kuhn joue le rôle d'un équilibriste. Il contribue ainsi à l'avenir automatisé et sûr auquel aspire le PRN Automation. Dans cet entretien, le nouveau lauréat du prix de la Fondation Humbolt nous donne un aperçu de son travail.
Daniel Kuhn is Professor of Operations Research at the College of Management of Technology at EPFL, where he holds the Chair of Risk Analytics and Optimization.
Daniel Kuhn est professeur de recherche opérationnelle au Collège de management de la technologie de l'EPFL, où il est titulaire de la chaire d'analyse et d'optimisation des risques.

NCCR Automation: Vous avez récemment reçu le Prix de la recherche Friedrich Wilhelm Bessel de la Fondation Alexander von Humbolt. Comment cela s'est-il passé ?

Daniel Kuhn: Pour être honnête, je ne connaissais pas ce prix avant. C'est un collègue, le professeur Steffen Rebennack de Karlsruhe, qui connaissait le prix et qui m'a désigné. Le prix étant interdisciplinaire, j'étais en concurrence avec des chercheurs d'autres domaines, comme la cancérologie. J'ai donc d'abord pensé que mes chances de le remporter avec mes recherches plutôt abstraites étaient assez faibles.

 

Après tout, les prix surprises sont les meilleurs!

(rires).

 

En quoi consiste votre recherche ?

En gros, j'étudie avec mon groupe de recherche les problèmes d'optimisation dits incertains. Nous essayons donc d'optimiser quelque chose dans des conditions incertaines.

 

Pouvez-vous donner un exemple ?

Si je veux par exemple investir des capitaux en bourse, je m'intéresse au bénéfice que les différents actifs vont générer l'année prochaine. Bien sûr, je ne le saurai que l'année suivante et je dois donc me décider en faveur de tel ou tel actif dans des conditions incertaines. Dans d'autres cas, les incertitudes résident dans les mesures. Par exemple, si je veux contrôler de manière optimale le chauffage d'un bâtiment et que je dois mesurer la température ambiante à l'aide de capteurs. Comment puis-je gérer le fait que les valeurs mesurées sont toujours sujettes à une certaine imprécision ?

 

Cela ressemble à un numéro d'équilibriste sur un sol instable, un peu comme un funambule.

Pour ainsi dire. Dans mes recherches, je réfléchis à tous les scénarios possibles de ces incertitudes et j'essaie d'optimiser chaque situation en conséquence. En particulier, j'essaie de minimiser les coûts dans le "pire des cas".

 

N'est-ce pas une approche quelque peu pessimiste ?

C'est vrai. Cependant, d'après mon expérience, même si la décision est basée sur le scénario le plus pessimiste, vous pouvez très bien vous en accommoder dans d'autres cas également. Après la crise financière de 2007 par exemple, on a beaucoup discuté des raisons pour lesquelles tant de banques avaient fait faillite. L'une des raisons souvent invoquées est que les banques utilisaient d'anciens modèles pour évaluer les contrats. Mais ces modèles ne fonctionnaient que dans des conditions normales. Dans une situation de crise comme celle de l'époque, ils ne donnaient pas de résultats significatifs. Ils évaluaient trop faiblement les risques de faillite. Avec mes modèles, qui sont spécialement optimisés pour le pire des cas, les banques auraient pu mieux se protéger contre une crise.

 

Cela semble être un bon moyen de mieux traverser une pandémie.

Je n'ai pas moi-même appliqué mes méthodes dans ce domaine, mais en principe, cela est possible. Cependant, il y a toujours un compromis à faire. Comme avec une police d'assurance, vous payez une certaine "prime" pour vous préparer à la crise. Si la crise n'a pas lieu, ces coûts n'ont servi à rien. En fin de compte, c'est une question politique de savoir quelle "prime" on est prêt à payer.

 

Comment vos recherches s'inscrivent-elle dans le cadre du PRN et comment pourraient-elles contribuer à l'"avenir automatisé et fiable" auquel aspire le PRN ?

Au sein du PRN, je participe aux projets sur la régulation dans un monde riche en données et incertain. Ces projets ont pour but de modéliser les incertitudes à l'aide de données et ainsi optimiser les processus de régulation. L'optimisation des processus de régulation est essentielle pour un avenir automatisé et fiable. 

 

Pourquoi?

Prenez par exemple la sécurité de l'approvisionnement en électricité. Les exploitants d'un lac de barrage, par exemple, ne disposent que d'une quantité limitée d'eau pour produire de l'électricité. La quantité d'eau est influencée par les conditions météorologiques et ne peut donc pas être prédite avec certitude. De plus, la demande et donc le prix de l'électricité varient. Les exploitants doivent maintenant formuler une stratégie d'exploitation de la centrale - quand produisent-ils de l'électricité et quand n'en produisent-ils pas ? Nos méthodes nous permettent d'envisager tous les scénarios - du lac plein avec des pluies continues à une flaque d'eau presque entièrement évaporée lors d'une sécheresse. Cela nous permet de développer la meilleure stratégie pour chaque situation et de l'intégrer dans la stratégie de régulation. Il en résulte finalement une automation fiable du fonctionnement de la centrale - et donc une contribution à la sécurité de l'approvisionnement en électricité.