L’apport du trading algorithmique aux marchés financiers

L’économie de marché se base sur un système économique où le prix des biens et des services est évalué grâce à la rencontre de l’offre et de la demande. Afin de faciliter cette rencontre, des institutions ont été créées : les Bourses. Entre chaque place boursière la concurrence fait rage afin d’attirer toujours plus d’investisseurs. Celles-ci doivent sans cesse améliorer leur rapidité et leur fiabilité dans le passage et le traitement des ordres d’achat et de vente.

 

Avec l’apparition et le développement d’Internet au cours des années 2000 et avant cela, la croissance des systèmes informatiques, les méthodes de trading discrétionnaire, c’est-à-dire basées sur les ordres émis par des personnes physiques, sont devenues de moins en moins performante. L’Homme s’est révélé ne plus être assez rapide, d’où l’apparition et le développement du trading algorithmique à haute fréquence.

 

Le point de départ de l’accélération de la diffusion des informations boursières se situe autour des années 1860 avec l’invention du pantélégraphe par l’abbé Giovanni Caselli (1815-1891). Il s’agit d’un outil de transmission d’image par l’utilisation d’une feuille de papier imbibée d’iodure de potassium. De 1867 à 1870, la Société des télégraphes a utilisé cette technique pour transférer les ordres boursiers et ainsi identifier les donneurs d’ordres. Bien plus tard, l’arrivée des ordinateurs civils a été une véritable révolution permettant le passage au trading télématique. Puis progressivement le processus du passage des ordres s’est entièrement dématérialisé. A partir de la dernière décennie du XXème siècle, l’ensemble des milieux financiers ont massivement investi dans l’outil informatique.

 

L’enjeu est simple : être capable de détecter très rapidement des opportunités sur les marchés financiers et les saisir avant tout le monde.

 

Pour cela, il faut être en mesure de recevoir les données de marché, de les traiter et de passer les ordres le plus rapidement possible. Les algorithmes de première génération avaient comme objectif l’exécution d’ordres prédéfinis selon un itinéraire établi en fonction d’un historique donné. Les algorithmes plus récents permettent d’anticiper un ordre futur ou de réagir en fonction de données instantanées. Une fois les algorithmes enregistrés, les systèmes informatiques sont capables de fonctionner de manière autonome. Associés à de puissants ordinateurs et des serveurs capables de gérer de grandes quantités de données en même temps, ils permettent d’obtenir la vitesse nécessaire à l’exécution de milliers d’ordre en un laps de temps très court. Les opérations sont désormais mesurées en milli voire en microsecondes. Les ordres, préenregistrés, sont automatiquement délivrés en fonction de telle ou telle variation d’un prix, d’une cotation ou plus généralement de tout type d’indice prédéfini. Alors que l’intervention humaine ne permet d’analyser instantanément qu’un nombre limité de données, l’utilisation d’algorithmes permet une réactivité supposée infaillible. L’équation est simple : plus de rapidité entraîne plus de clients et de liquidités donc plus de chiffre d’affaire. Sur les marchés financiers, les opportunités se révèlent à un instant précis ; toute la gestion repose donc sur une réaction instantanée d’où l’efficacité de la méthode algorithmique puisqu’elle automatise la décision de gestion et la décision d’exécution.

 

Laisser un ordinateur se charger lui-même d’effectuer des transactions sur les marchés n’est pas une solution miracle, tout dépend de la puissance des algorithmes utilisés. Dans un environnement concurrentiel chacun essai de tirer son épingle du jeu. De nouveaux programmes informatiques ont été conçus pour repérer et contrer automatiquement certains types de transactions sur des fréquences toutes aussi élevées. Finalement, à partir d’un ordre unique peut découler une cascade de milliers d’ordres différents en l’espace de moins d’une seconde.

 

D’autre part, cette situation implique des contreparties : les volumes d’ordres explosent et les clients sont très exigeants sur leur temps de traitement. Les utilisateurs de ce type de procédé comme les sociétés de gestion et les banques d’investissement sont dans l’obligation de s’adapter à chaque nouveau progrès technique à défaut d’être rapidement surclassé, la meilleure des stratégies d’investissement ne pouvant se concrétiser sans outils informatiques à la hauteur. Un algorithme de trading automatique n’est efficace par définition qu’à grande vitesse. La capacité de réaction, au mieux avant les autres, au pire en même temps, est donc le cœur du succès.

 

Outre le fait que l’algotrading (contraction de trading algorithmique) palie aux limites physiques et cognitives de l’homme, il élimine également l’aléa lié au facteur décisionnel humain. Si le trader humain peut, pour diverses raisons émotionnelles ou rationnelles, réaliser des opérations à risques manifestement incohérentes, l’algorithme ne sera quant à lui jamais déstabilisé ; il continuera d’appliquer les actions programmées de manière immuable. Les risques de fraudes sont donc largement limités mais pour autant pas totalement impossible. Un article de l’édition en ligne du Huffington Post en date du 25 septembre 2013[1] rapporte une anecdote intéressante. Après l’annonce de la Fed de maintenir son soutien à l’économie, les premières réactions boursières ont eu lieu à Chicago et non à New York. Or, « il faut sept millisecondes pour qu’une information transite entre Washington, siège de la Fed, et la ville de Chicago. On estime qu’à chaque centaine de miles (160 kilomètres) de distance d’un lieu, 1 millième de seconde est nécessaire pour qu’une information arrive à bon port. Sauf que des ordres boursiers en réaction à la décision de la Fed ont été passés plus tôt à Chicago qu’à New York, pourtant moins lointaine de Washington (328 km contre 956 km) ». Si les ordres sont légaux puisqu’ils sont intervenus quelques millisecondes après l’annonce, cela signifie en revanche que l’information sur les intentions de la Fed ont filtré avant l’annonce officielle permettant la programmation d’ordres instantanés avant même la réception de l’information.

 

En revanche, les processus automatisés augmentent le risque opérationnel, comme les pannes ou les dysfonctionnements. L’utilisation d’algorithmes crée par ailleurs des risques d’opacité dans le processus de formation des prix. Il suffit de suivre l’actualité sur le sujet pour constater que la presse spécialisée relève de manière régulière ce qu’on pourrait qualifier de « mini krachs boursiers ». Cela n’est en réalité guère surprenant lorsque l’on sait qu’un ordre passé en bourse peut entraîner la réaction instantanée et automatique d’une multitude d’automates. De surcroît, parallèlement aux marchés financiers, ce sont développé des Systèmes Multilatéraux de Négociation (SMN). Ces marchés ont été autorisés en France par la directive MIF de 2007. Ils sont exploités par un prestataire de services d’investissement ou une entreprise de marché qui en fixe les règles de fonctionnement sous réserve du respect de certaines normes édictées par l’Autorité des Marchés Financiers. Les SMN ont permis la création de « dark pool ». Ce sont des marchés hors marchés officiels qui ont pour objectif de traiter des volumes beaucoup plus important que les bourses traditionnelles en gardant le plus de discrétion possible sur les auteurs des ordres, autrement dit les investisseurs restent anonymes. Turquoise, le premier dark pool européen, a été lancé le 22 septembre 2008 par un groupe de neuf banques dont la BNP et la Société Générale. Leur développement a ensuite crue de manière exponentielle.

 

L’enjeu de tels marchés réside dans l’ouverture à la concurrence des places boursières qui doivent désormais redoubler d’efforts pour pouvoir conquérir ou conserver des parts de marché. Chaque place boursière, réglementée ou non, tente donc d’attirer le maximum de client. Or, ceux-ci sont généralement à la recherche de discrétion, de rapidité, de stabilité et de réduction des coûts de transactions. Autant de qualité que peut offrir une utilisation, parfois abusive, du trading algorithmique.

 

Vincent Vercelli.

 


[1] http://www.huffingtonpost.fr/2013/09/25/fed-traders-chicago-presse-medias-reserve-federale_n_3987079.html

Pour aller plus loin: Les marchés financiers en France – Franck Sebag

Laisser un commentaire

Votre adresse email ne sera pas publiée. Les champs obligatoires sont marqués d'une étoile *

*