Upload
christophe-da-rocha
View
1.499
Download
5
Embed Size (px)
DESCRIPTION
Citation preview
Mémoire de Master 2 Marchés Financiers
2012 -2013
Analyse Fondamentale et Analyse Technique
« L’analyse fondamentale et l’analyse technique peuvent-elles s’associer
pour prédire une tendance sur les marchés actions ? »
Da Rocha Christophe (5MFI2) et Vaillant Rémi (5MFI2)
Maître du mémoire : Bertrand Athouel
Mots clés: analyse fondamentale, analyse technique, actions cotées en Bourse,
tendances de marché.
2
3
SOMMAIRE
Introduction………………………………………………………………… 4
I - L’Apport de l’analyse fondamentale…………………………………. 5
I.1 – L’approche des Crises financières et économiques…………….. 6
I.2 – Les modèles d’évaluation………………………………………….. 21
II – L’Apport de l’analyse technique…………………………………….. 31
II.1 – L’analyse comportementale : les biais psychologiques………... 32
II.2 – Les forces et faiblesses de l’analyse technique dans la
détermination des tendances…………………………………………….
48
Conclusion………………………………………………………………….. 58
4
INTRODUCTION
Nul doute que toute personne intervenant sur les marchés actions a au moins une fois
voulu posséder le don de voir l’avenir. Qui n’a jamais voulu savoir avant tout le monde ce que
le cours de telle ou telle action cotée en Bourse allait être demain ? Avec ce don, les
possibilités de réussites financières semblent sans limites. Si cette capacité de prédire le cours
futur d’une action cotée en Bourse existait, elle serait convoitée au plus haut point.
Cependant, et jusqu’à preuve du contraire, une telle capacité n’existe pas et chaque
intervenant sur le marché doit y aller de son analyse.
De célèbres investisseurs ont fait fortune sur les marchés actions, et quelques noms, tel
que Warren Buffet, font légendes. Peut-être ont-ils trouvé la clé pour deviner l’évolution
future des cours? Cela semble surréaliste, surtout lorsqu’on le souvient des grandes pertes
financières qui leurs ont été reconnues. Ces investisseurs, aussi couronnés de succès soient-ils,
reposent comme chacun sur l’analyse qu’ils font du marché.
Les marchés financiers demeurent des lieux d'échanges ou les acteurs principaux sont
des êtres humains, avec leur compréhension du monde qui les entoure, leurs connaissances,
leurs croyances, leurs humeurs. Les marchés financiers sont, à l'instar de la nature humaine,
d'une complexité telle qu'il est impossible de les modéliser et d'en créer une équation parfaite,
capable de les expliquer et donc de les prédire.
Deux grandes écoles d’analyse se confrontent pour prédire les tendances boursières.
D’un côté l’analyse fondamentale qui base ses résultats sur l’étude d’éléments économiques et
d’autre part l’analyse technique qui base ses résultats sur l’étude de graphiques de cours. Ces
deux écoles ont toujours été confrontées pour savoir laquelle des deux était plus viable, plus
efficace. Aussi, il est intéressant de se questionner différemment. Ce mémoire va ainsi tenter
de répondre à la question : L’analyse fondamentale et l’analyse techniques peuvent-elles
s’associer pour prédire une tendance sur les marchés actions ?
Dans un premier temps l’approche de l’analyse fondamentale mettra en avant la
logique et les éléments lui permettant de définir une tendance, ainsi que les limites de son
approche. Dans un deuxième temps, l’approche prise par l’analyse technique viendra
confronter et combler l’analyse fondamentale dans la prédiction de tendance.
5
I - L’APPORT DE L’ANALYSE FONDAMENTALE
L’analyse fondamentale a pour mission principale de valoriser un titre financier
représentatif d’une société. Son but est de mettre un prix sur une action, un prix qu’elle estime
être représentative du titre.
L’analyse fondamentale a une approche économique de l’entreprise. Elle situe la
société évaluée dans un contexte général: l’économie. Dans ce cadre, l’entreprise va interagir
avec différents acteurs, tels que ses clients, ses fournisseurs ou encore ses concurrents, qui
vont de par leurs actions inciter voir obliger l’entreprise à agir ou ne pas agir. Elle va
également être soumise à des influences plus ou moins directes en provenance d’entité
distinctes, tel que principalement le gouvernement ou encore la banque centrale qui vont, de
par leurs politiques et décisions, influencer le contexte économique dans lequel l’entreprise
évolue et ainsi bien souvent l’obliger à agir en conséquence.
Toutes ces influences, retranscrites de façon différentes à l’économie, forment un
cadre dans lequel l’entreprise va évoluer. Cette évolution va être liée à des changements dans
ses achats, ses ventes, sa structure, son organisation, son développement, etc. De façon
générale, son activité va être impactée par tous les changements de l’économie dans laquelle
elle se trouve. Par extension, ses changements vont impacter sa valeur et donc le prix que les
investisseurs sont prêts à lui accorder. C’est là que l’analyse fondamentale prend tout son
sens, en ce qu’elle va permettre d’étudier toutes ces évolutions, tant passées que futures pour
déterminer si une société va s’apprécier, et prendre de la valeur ou au contraire se déprécier et
perdre de la valeur. L’idée sous-jacente est alors d’indiquer si le prix d’une entreprise va
monter et s’inscrire dans une tendance haussière, ou baisser et s’inscrire dans une tendance
baissière, ou encore rester dans une constance et s’inscrire dans une tendance neutre.
Afin d’arriver à une conclusion quant à la tendance dans laquelle va s’inscrire le prix
d’une action, l’analyse fondamentale a développé un certain nombre de modèle permettant
d’indiquer avec un niveau de certitude plus ou moins élevé, si une action est sous-évaluée,
surévaluée ou encore relativement bien évaluée. La construction de ces modèles s’appuie sur
des hypothèses économiques issues de différentes réflexions économiques qui ont marqué
l’approche que l’on a de l’économie depuis notamment ce dernier siècle.
Pour étudier l’approche prise par l’analyse fondamentale, une réflexion sur les
différentes écoles économiques est nécessaire pour mettre en avant les éléments utiles,
indispensables à cette dernière. Une fois les réflexions économiques étayées et discutées, elles
serviront de base à l’étude des principaux modèles utilisés par l’analyse financière qui font
6
alors lien entre la valeur réelle de l’entreprise et sa valeur échangée sur le marché. Mais avant
tout cela, il est intéressant d’étudier les crises financières et économiques qui ont marqué
l’histoire de l’homme, car elles ont été à la base des réflexions économiques qui permettent
aujourd’hui à l’analyse fondamentale d’être une activité motrice de la finance.
I - 1 L’approche des Crises financières et économiques
Les Crises financières ayant eu lieu depuis le début du 20e siècle ont marqué
l’économie et l’esprit collectif des hommes. Chaque Crise vécue a apporté son lot
d’enseignements, que ce soit la Crise de 1929 qui plongea les Etats-Unis dans la Grande
Dépression, le Krach d’octobre 1987 qui résulta dans la baisse spectaculaire de l’indice
américain Dow-Jones de 22,6% en l’espace d’une journée ou encore la Crise de 2007, pour
laquelle la reprise économique peine encore à se lancer. Les catastrophes financières font
avancer la célèbre proposition voulant que si, d’une crise à l’autre, les conditions
déterminantes sont les mêmes, ou similaires, alors quelques-unes au moins des conséquences
seront les mêmes, ou similaires. Sur cette idée, l’étude des Crises financières met en évidence
des phénomènes récurrents ou du moins des éléments qui tendent à se répéter.
Des ressemblances mineures, voir triviales, apparaissent entre les Crises. Comme il a
pu être remarqué, les Crises ont principalement lieu en automne; l’arrivée de l’hiver a peut-
être un effet psychologique sur l’humeur des acteurs des milieux financiers. De même, le
lundi semble avoir été un jour particulièrement sombre; les spéculateurs et acteurs peu
expérimentés qui se trouvaient sur les marchés financiers, après avoir connu d’autres
préoccupations durant le week-end, ont surement laissé cours à leurs craintes et ont décidé de
jouer la sécurité en revendant. Cela a été le cas le lundi 21 octobre 1929, première des
journées d’avertissement qui ouvrit la voie au terrible mardi qui suivit, et de même pour le
lundi 19 octobre 1987, reconnu comme le deuxième jour le plus dévastateur des marchés
financiers, derrière le krach de la bourse islandaise de 2008.
Dans la lignée de ces phénomènes calendaires, plusieurs études ont mis en évidence
des effets périodiques récurrents sur les marchés financiers. Dans les années 1980, plusieurs
recherches ont rapporté par exemple que les gains réalisés en Janvier sur les marchés
financiers étaient significativement plus élevés comparés aux autres mois de l’année, avec en
plus, des gains anormaux rapportés dans les cinq premiers jours du premier mois de l’année.
Depuis les premières documentations dans les années 1980, ce pattern, connu sous le nom de
7
January Effect (traductible en Effet Janvier) a été observé sur la plus part des marchés
actions à travers le monde. Cette anomalie, aussi qualifiée de Turn-of-the-year effect
(traductible en Effet changement d’année civile) contredit les hypothèses d’efficiences de
marchés car les gains en janvier ne sont attribuables à aucune nouvelle économique ou
information pertinente. Un certain nombre de raisons ont été suggéré pour expliquer ce
phénomène, la principale étant l’effet de taxation et plus particulièrement la vente réalisée en
fin d’année civile pour récupérer une perte sur taxe. Les investisseurs auraient tendance à
clore leurs positions en pertes latentes en décembre dans le but de réaliser une perte imputable
à leurs gains réalisés dans le courant de l’année. Cette hausse d’offre sur le marché tend à
faire baisser le cours des titres en fin d’années, qui sont ainsi rachetées en janvier à des prix
plus faibles. Cette demande en début d’année dirige ainsi les prix à la hausse et donc la valeur
des portefeuilles. Un certain nombre d’autres effets calendaires, ont été trouvés, mais ces
anomalies connues du monde financier se font arbitrer, ayant pour conséquence de leur faire
perdre leur effet.
Aussi, ces éléments anecdotiques ne sauraient expliquer les causes de telles tragédies
financières qui ont marqué, et marquent encore les marchés actions. D’autres similitudes entre
les crises financières autrement plus importantes sont à souligner, l’histoire financière étant
soumise aux mêmes conditions déterminantes.
Une Euphorie générale alliée à une spéculation accrue
La première condition déterminante à une crise financière, mise en évidence en amont
des crises, est ce qui a été qualifié par John Kennet Galbraith de « droit acquis » à l’euphorie
dans son ouvrage La crise économique de 1929 – Anatomie d’une catastrophe financière (titre
original : The Great Crash). Les cours des actions cotées sont montés, au cours des années
précédant les crashs boursiers, sans limite apparente.
Dans les années 20, les Etats-Unis connaissent des années de croissance industrielle
soutenue que rien ne semble pouvoir arrêter. L’économie tourne à régime soutenu, les emplois
sont présents et la consommation ne faiblit pas. Bien que la pauvreté existait, la richesse
s’échangeait, permettant aux classes aisées de l’être toujours plus, et aux classes moyennes de
disposer de revenus en excès. Cette croissance des rémunérations s’est tout d’abord dirigée
vers la consommation, continuant à rendre toujours plus profitables des entreprises dont les
8
perspectives d’évolutions semblaient ne pas avoir de limite. Ayant atteint un niveau de vie
élevé, relativement aux revenus gagnés, les citoyens se sont naturellement tournés vers des
activités pour faire fructifier leur nouvelle épargne, à la recherche de nouvelles richesses : la
Bourse. L’excès de richesse devait être mis à profit, et les marchés financiers se sont trouvés
être une solution intéressante. La Bourse, que ce soit dans les années 20 ou dans toute phase
de croissance de l’économie, est un lieu qui permet à tout citoyen de facilement placer son
argent dans des entreprises, dans des projets dont les rendements espérés sont élevés. La
facilité à acheter et revendre des parts de sociétés a rendu cet endroit populaire et très prisé.
La fin des années 20, avant l’éclatement de la Crise qui donna suite à la Grande Dépression,
n’a pas dérogé à la règle : les volumes échangés sur les marchés financiers n’ont cessés de
croître. Pendant les périodes d’euphorie financière, les marchés boursiers sont montés sans
limites apparentes. Cette euphorie financière prend en force lorsque, malgré des interruptions
temporaires, les marchés boursiers continuent, comme inexorablement, de grimper. Dans tous
les cas, les influences sous-jacentes qui affectent les cours boursiers, que ce soient les
anticipations de rendement ou la croissance économique, ont fait place à la croyance selon
laquelle l’augmentation des valeurs ne cesseront jamais de monter. A noter que cette croyance
collective se soucie peu de la réalité, l’achat d’un titre financier n’a comme intérêt que le
profit que l’on peut en espérer sur sa revente. Les aspects de propriété, qui caractérisent les
actions financières, n’existent plus dans ces moments, face à une hausse prochaine et sûre;
sûre dans l’inconscient collectif qui veut que les prix ne s’arrêteront pas de grimper. Le
revenu des biens ou le plaisir qu’ils peuvent procurer à leur propriétaire n’ont plus grande
importance, car ils n’équivalent plus la valeur financière que le gain réalisable sur l’opération
d’achat-revente peut concrétiser. L’inconscient collectif veut que, même si de petites
fluctuations négatives apparaissent dans les cours des actions, les jours prochains seront
positifs, les valeurs boursières continueront de monter. Ce droit à l’euphorie collective pousse
tout citoyen à croire en des lendemains toujours meilleurs, à croire que leur richesse ne peut
que continuer de s’apprécier. Dans le cas des années 1920, l’euphorie ne semblait pas pouvoir
s’arrêter car il n’y avait eu jusqu’alors aucune crise marquante comme on pouvait l’avoir en
mémoire à la fin des années 2007. Cette croyance en des gains futurs sans limites est
surévaluée par la vision que l’on peut avoir de l’économie : le titre des actions grimpe, donc
cela signifie, pour les acteurs financiers, que les entreprises sous-jacentes voient leur
rentabilité croître. Donc pourquoi ne pas continuer à y croire ?
9
Cette perte de connexion avec la réalité économique, qui est spécifique à toute
euphorie financière se caractérise par une bulle. Dans ces bulles financières, les prix des biens
échangés atteignent des niveaux élevés déconnectés de la réalité économique. L’exemple le
plus marquant de bulle spéculative revient à la Tulipomanie, la tristement célèbre Crise de la
Tulipe survenue dans les années 1630. Au 16e et 17
e siècle, voit se développer un engouement
particulier pour l’horticulture en Europe du Nord et la tulipe devient un emblème de luxe, de
rang social élevé. Leur convoitise et leur demande grandissante pousse les commerçants à
mettre en place des contrats à terme sur ces fleurs. Ces contrats à terme sont devenus des
objets de négociations tellement spéculés que le cours de l’oignon de tulipe voit sa valeur
exploser. Même si les données historiques de l’époque sont très pauvres et si les différentes
théories utilisées pour évaluer le prix des tulipes sont aujourd’hui discutées, il a été établi par
Charles Mackay (écrivain et journaliste britannique à tendance économique né le 27 mars 181
à Perth en Ecosse et décédé le 24 décembre 1889 à Londres), pour ne citer que lui, qu’un
bulbe de tulipe s’échangeait au plus fort de la tulipomanie contre 5 hectares de terre. La
disproportion entre valeur spéculative et valeur réelle est frappante : il est économiquement
illogique qu’un produit de la terre soit évalué autant de fois au-dessus de la valeur du terrain
qui lui est nécessaire pour être produit. A chaque fois, cette déconnexion frappante de la
réalité, qui a caractérisé chaque crise financière connue, a pourtant été dénoncé par quelques
personnes, suffisamment alertes et distantes de la recherche de richesse facile. Ces parias de
l’euphorie générale des marchés n’ont pourtant pas eu de poids face à une foule pacquée
autour d’une croyance aussi forte.
L’euphorie générale des marchés s’est trouvée, avant toute crise, un camarade de jeu : la
spéculation. Cette alliée, incitée et facilitée par les outils mis à sa disposition, notamment les
opérations sur marge, a joué un rôle prépondérant dans le décrochement des valeurs
financières lors des crises.
La crise des subprimes a encore récemment montré l’engouement démentiel des
acteurs financiers pour la spéculation et le gain excessif. Les années 2002 à 2007 ont été pour
les Etats-Unis une période de croissance soutenue comme l’atteste le S&P 500 passé de
776,76 points le 10 septembre 2002 à 1.565,15 5ans plus tard. A la fin des années 2006,
Henry Paulson, ancien CEO (Chief Executive Officer = Directeur Général) de Goldman
Sachs et à la tête du fonds Paulson & Co s’est mis d’accord avec Lloyd Craig Blankfein,
actuel CEO de la Banque d’investissement, pour former un fond spéculatif basé sur les prêts
hypothécaires américains. Début 2007, Goldman Sachs est rentré en contact avec ACA
10
management pour la sélection des RMDS (Residential Mortgage-Backed Securities = prêt
hypothécaires ; prêts garantis par l’actif collatéral à savoir le bien immobilier acheté) pacqués
ensemble et organisés en fonction de leur notation de crédit. La particularité de ce projet,
nommé Abacus 07-AC1, a été la construction contre mesure faite par le duo Blankfein et
Paulson : la sélection des RMDS a été réalisé dans l’optique de faire s’écrouler le produit.
Une fois le produit construit, la vente du produit a été réalisée à des investisseurs non habitués
à ce type de produit complexe. Les acheteurs tels que la banque allemande IKB et le danois
ABN AMRO ont décidé de rentrer dans un monde spéculatif pour lequel ils ne détenaient pas
le savoir-faire nécessaire. Dans cette phase économique roulant à bonne vitesse, ces
investisseurs novices dans sur ce type de contrat ont cherché de nouvelles opportunités pour
réalise plus de profits. Le tableau final avant l’explosion du fond Abacus était le suivant : d’un
côté Henry Paulson tenant une position short sur le produit, croyant à l’effondrement du
produit qu’il a construit, pour une spéculation à 1 milliard de dollars d’enjeux, et d’un autre
côté des investisseurs détenant des positions long sur des produits dont ils ne mesuraient pas
le risque, pour un espoir de gain élevé. En janvier 2008, 99% des actifs référencés dans le
portefeuille Abacus ont fait défaut, créant le cataclysme faisant référence à la Crise des
subprimes. Cet engouement pour la spéculation qui atteint tous les acteurs du monde
financier, professionnels comme particuliers, est un effet apparu exacerbé avant l’éclatement
des autres crises financières. L’augmentation des valeurs, soutenue par une croyance
commune que les marchés ne s’arrêteront pas de monter, incite les individus à continuer leur
spéculation.
Un des éléments caractéristique de la spéculation sur les marchés actions est
l’utilisation des achats et ventes à découvert sur marges. Les acteurs financiers peuvent
acheter les actifs financiers qu’ils désirent en empruntant une partie du prix de l’actif à leur
broker. Acheter sur marge peut grandement augmenter le potentiel de gains ou de pertes pour
un montant d’actions car l’acheteur bénéficie d’un plus grand pouvoir d’achat. En comparant
l’achat d’un titre à 100€ en argent plein avec le même achat réalisé à 50% sur marge, l’effet
de levier sous-jacent au système d’achat sur prêt est mis en valeur : Si, ultérieurement, le titre
vaut 110€, l’investisseur se retrouve à la fin avec 110€ pour 100€ investit soit 10% de retour
sur investissement, calculé comme 10€ (110€ - 100€) de gains rapportés au 100€ investis.
Avec un achat sur marge à 50%, le l’investisseur se retrouve au moment de la revente du titre
avec 110€ en sa possession. Après remboursement du prêt de 50€, il lui reste 60€ pour un
11
investissement initial de 50€, soit 20% de retour sur investissement, calculé comme 10€ (60€
- 50€) rapportés aux 50€ investis.
L’aspect d’euphorie des marchés est difficilement modélisable : comment attraper ce
sentiment collectif dans une mesure économique quantifiable, comparable ? Une approche
pourrait être similaire à celle de l’indicateur VIX. L’idée pourrait ainsi être de mesurer les
attentes des marchés par l’évolution de leur volatilité. L’aspect spéculatif semble tout autant
difficilement modélisable bien qu’une approche particulière puisse aider en ce sens : Le
volume des prêts des courtiers, garantis par des valeurs achetées sur marge, et plus
particulièrement leur évolution au travers des mois permettrait de mesurer la masse de
spéculation sur les marchés. Entre 1920 et 1928, l’augmentation des volumes d’argent
empruntés pour acheter sur marge des titres cotés sur NYSE parle de lui-même. En 1920, les
montants de prêts du marché court terme variait entre 1 milliard et 1 milliard et demi de
dollars. En 1926 ce chiffre est monté à 2 milliards et demi de dollars au courant de l’été. Un
an plus tard l’augmentation fut encore plus marquante et fit monter les prêts à 3 milliards et
demi de dollars. Fin 1928, le New-York Stock Exchange Year-Book 1928-1929 rapportait le
chiffre de 5 722 258 724 dollars.
Une économie en pleine expansion et des réponses gouvernementales à effet de levier
Une autre condition déterminante à un éclatement boursier, comme les crises
financières du passé l’enseignent, est un environnement économique en pleine expansion. Les
montées des valeurs boursières enregistrées en amont des catastrophes boursières tiennent
d’une grande part à leur économie macro sous-jacente.
Les années 20 furent pour les Etats-Unis une période florissante. La production et
l’emploi étaient élevés et continuaient à s’accroître, dans un système économique où les
capitaux de la richesse s’échangeaient à un rythme soutenu. La stabilité des salaires s’alignait
à la stabilité des prix. Entre 1925 et 1929, le nombre d’établissements industriels était passé
de 183 900 à 206 700 et la valeur de leur production industrielle s’était porté de 60,8 milliards
de dollar à 68 milliards (source : US Department of Commerce, Bureau of the Census,
Statistical Abstract of the United States), soit 12% d’évolution en l’espace de 4 années. C’est
dans cet environnement économique bouillonnant de croissance que la crise de 1928 a éclaté.
Cela a été le cas pour toutes les crises économiques. Aucune crise n’est apparue au lendemain
12
d’une relance économique, Elles ont toutes éclatées après une bulle spéculative inscrite dans
une phase économique où l’économie tournait à plein régime. L’étude des cycles
économiques apporte alors une deuxième source d’explication au contexte économique dans
lequel l’évaluation d’une entreprise s’inscrit. Les cycles économiques ont été définis pour la
première fois en 1946 par Arthur Burns et Wesley Mitchell, dans leur ouvrage Measuring
Business Cycles. Leur vision de l’économie défini les cycles économiques comme un type de
fluctuation trouvé dans l’activité économique total des nations qui organisent leur travail
principalement en entreprises commerciales : un cycle consiste en d’expansions se produisant
approximativement au même moment dans plusieurs activités économiques, suivi par des
récessions, contractions similaires et relances qui fusionnent dans la phase d’expansion du
cycle suivant ; cette séquence d’évènements est récurrente mais non périodique (traduit de
l’anglais). Un cycle économique se décompose ainsi en quatre phases : creux, expansion, pic
et contraction, chacun apparaissant à la suite l’un de l’autre. Quand l’expansion d’une
économie est bien établie, un boom souvent apparait. Ce boom est toujours une phase
d’expansion caractérisée par une croissante économique qui teste les limites de l’économie.
L’analyse fondamentale prend en considération le cycle dans lequel se situe le secteur
évalué. Des cycles économiques ont été reconnus très tôt avec la théorie économique et des
efforts considérables ont été entrepris pour les différencier, les comprendre, les expliquer.
Cette démarche a énormément servi à l’analyse fondamentale qui peut ainsi positionner un
secteur d’activité vis-à-vis d’un cycle de croissance, de décroissance, que ce soit avec un
rythme plus ou moins soutenu. Jusqu’aux années 30, la vision générale donnait un caractère
naturel à l’économie et présentait les récessions comme des phases temporaires. Cependant,
la sévérité de la Grande Dépression des années 30 a créé une crise dans la théorie économique
qui a nécessité une approche plus pragmatique. Après la Grande Dépression qui commença en
1929, le débat entre différentes écoles de pensées économiques a stimulé d’importantes
innovations dans la manière où les cycles économiques sont décrits et expliqués.
Similairement, après la récession déclenchée par les chocs du pétrole en 1973 et 1979, le
vieux paradigme a été mis de côté et de nouveaux développements en économie ont mené à
une compréhension améliorée de la dynamique économique.
L’école Néoclassique, repose sur le concept d’équilibre général des marchés : tous les
marchés tendent à atteindre un équilibre du fait, premièrement, d’une main invisible, comme
la nomme son auteur Adam Smith (philosophe et économiste écossais né le 5 juin 1790 à
Kirkcaldy en Ecosse et décédé le 17 Juillet 1790 à Edimbourg), et deuxièmement, par l’idée
13
qu’un prix sera trouvé pour chaque bien auquel la demande sera égale à l’offre. Toutes les
ressources sont utilisées avec efficience, basé sur le principe que le coût marginal égale le
revenu marginal des producteurs et que l’utilisation de la main d’œuvre et du capital sont
également utilisés avec efficience, sans non-emploi volontaire. A noter que le capital se
comprend comme le capital financier, correspondant notamment à l’investissement, mais
aussi dans sa forme étendue au capital physique, à savoir les machines nécessaires à la
production. Dans la pratique, l’approche néoclassique veut que cette main invisible réalloue le
capital et la main d’œuvre pour produire ce que les consommateurs désirent consommer, et
n’autorise pas de fluctuations ancrées dans l’économie générale et son activité. Si un choc
modifie la demande générale ou l’offre générale, l’économie réajustera rapidement pour
atteindre son équilibre, que ce soit par la variation des taux d’intérêts ou des salaires. Les
économistes néoclassiques reposent sur la loi de Say qui stipule que tout ce qui est produit
sera vendu car l’offre crée sa propre demande. Jean-Baptiste Say (économiste français et
industriel du secteur du coton né le 5 Janvier 1767 à Lyon et décédé à Paris le 14 Novembre
1832) expliquait que si un bien est produit, le capital et la main d’œuvre utilisés pour le
produire devra être compensé. Cette compensation, sous forme d’intérêts pour le capital
financier et de salaires pour la main d’œuvre crée du pouvoir d’achat dans le sens où le
travailleur reçoit une somme monétaire qu’il peut utiliser pour consommer les biens et
services dont il a besoin. D’après l’école néoclassique, une crise massive est impossible de
par le lissage continu et le retour à un équilibre économique constant. Cependant, cela arriva
dans les années 30 avec la Grande Dépression. La validité de l’approche semble alors
compromise, mais cela n’enlève pas tout à la valeur ajoutée que cette notion de main invisible
et de retour à l’équilibre qui aujourd’hui encore ont leurs fondements.
La Crise de 1929 a introduit une cassure dans la théorie économique car une crise de
cette ampleur, jusque-là pas vécu, a touché de nombreux secteurs en même temps et d’une
manière hautement dramatique. Parce que l’approche néoclassique a dénié la possibilité d’une
dépression prolongée, elle ne saurait être utilisée pour expliquer comment combattre une telle
dépression. Le principal mécanisme d’ajustement de l’école néoclassique, à savoir des
réductions dans les salaires, était difficile à accomplir et remis en question plus tard par
l’école Keynésienne.
L’école de pensée autrichienne, incluant Friedrich Hayek (Friedrich August von
Hayek, philosophe et économiste né le 8 mai 1899 à Vienne et décédé le 23 mars 1992 à
Fribourg-en-Brisgau, en Allemagne) et Ludwig von Mises (économiste né le 29 Septembre
14
1881 à Lember en Autriche-Hongrie et décédé le 10 Octobre 1973 à New-York) partage
quelques points de vues avec l’école de pensée néoclassique, mais se concentre
principalement sur deux sujets que sont l’argent et le gouvernement. L’argent n’était pas une
nécessité dans le modèle néoclassique car l’échange de biens et services pouvait avoir lieu
dans la forme de troc et pouvait toujours permettre d’atteindre un équilibre de valeurs.
L’argent n’était alors vu que comme un moyen de simplification des échanges. De façon
similaire, le rôle du gouvernement dans le modèle néoclassique était relativement limité car
l’économie était vu comme capable de se prendre en charge elle-même et le gouvernement
n’avait qu’un rôle de maintien de la loi et de sécurisation des frontières. Von Hayek
argumentait que les fluctuations sont causées par les actions des gouvernements qui cherchent
à accroitre le Produit Intérieur Brut et l’emploi en adoptant des politiques monétaires
expansionnistes. D’après cette approche, les gouvernements diminuent les taux d’intérêts des
marchés en dessous de leur valeur naturelle, ou valeur vers laquelle la main invisible les
amènerait d’après Adam Smith, tendant ainsi à inciter les entreprises à investir toujours plus.
Une fois que les entreprises réalisent qu’elles ont accumulé trop de machines et de structure,
elles vont logiquement et soudainement arrêter d’investir, ce qui aura pour conséquence de
réduire la demande générale et ainsi créer une crise dans l’économie. Pour retourner à un
nouvel équilibre, les prix et les salaires doivent diminuer.
Le résultat d’une telle manipulation des taux d’intérêts explique les fluctuations
exhibées par l’économie qui n’auraient pas eu lieu autrement. L’école australienne préconise
alors un interventionnisme limité du gouvernement dans l’économie. Cette pensée met en
avant l’importance des décisions prises par le gouvernement d’un pays et l’importance de les
incorporer dans l’étude d’une analyse financière. Les implications plus ou moins directes des
décisions gouvernementales sont ainsi des éléments incontournables qui expliquent une part
de la valeur donnée à un titre financier. L’école autrichienne va encore plus loin avec sa
théorie de l’origine des cycles économiques : les interventions malavisées des gouvernements.
L’école néoclassique n’a pas de théorie concernant les cycles économiques et notamment leur
origine. Cependant, Joseph Schumpeter (économiste autrichien né le 8 Février 1883 à Triesch
en Autriche-Hongrie et décédé le 8 Janvier 1950 à Salisbury au Connecticut), membre de ce
courant de pensée, a formulé sa théorie sur la destruction créatrice et l’innovation qui montre
que des cycles à l’intérieur des secteurs économiques résultent de progrès technologiques. Sa
théorie de l’innovation explique des cycles limités aux secteurs : quand un inventeur crée un
nouveau produit ou un moyen nouveau de mieux produire un bien ou service déjà existant,
15
l’entrepreneur à l’origine de cette découverte aura tendance à avoir de plus gros profits et
tendrait à sortir les producteurs actuels du marché. Cette théorie est notifiable aujourd’hui
encore avec les facteurs clés de succès nécessaires aux entreprises pour rester sur leur
secteur : toutes les innovations technologiques peuvent être des exemples : avant de devenir
un facteur clé de succès, autrement dit un élément indispensable à prendre en compte pour
intégrer et rester sur un marché, une découverte technologique était un élément de distinction
qui a permis à son entrepreneur inventeur de se différencier de ses concurrents et ainsi
récupérer des parts de marché. Une fois le succès perçu par les concurrents, ces derniers
doivent s’adapter et proposer un élément nouveau au moins équivalent à cette découverte pour
récupérer leurs parts de marché. On note ainsi un des éléments nécessaires au maintien d’une
entreprise sur son secteur : ses dépenses en Recherches et Développements, nécessaires pour
se différencier de ses concurrents. Par cette théorie de l’innovation, Joseph Schumpeter a mis
en avant l’idée que les innovations elles-mêmes peuvent générer des crises qui affectent un
secteur.
Deux autres écoles de pensées économiques, l’école Keynésienne et l’école
Monétariste, ont eu une influence plus importante dans leur analyse des liens entre les cycles
économiques et l’influence des gouvernements en ce qu’elles leur reconnaissent un rôle
interventionniste important. John Maynard Keynes (économiste britannique né le 5 Juin 1883
à Cambridge en Angleterre et décédé le 21 Avril 1946 à Firle dans le Sussex, au Royaume-
Uni) contestait les approches néoclassiques et australiennes. Il observa qu’une réduction
généralisée des prix et des salaires, nécessaire pour ramener les marchés à un équilibre durant
une récession, est dur à réaliser. Par exemple, un travailleur ne veut pas voir son salaire
diminuer, ce qui rend l’action de réduire les salaires anti-démagogue et donc contraire à l’un
des intérêts principaux des politiques, à savoir leur réélection. Dans l’hypothèse où la main
d’œuvre serait prête à accepter une baisse de salaire, cette situation pourrait exacerber la crise
dans laquelle l’économie se trouve en réduisant la demande générale plutôt que de la
résoudre. (Cet aspect négatif a été noté dernièrement, avec les prévisions du FMI dans la
relance économique de la Grèce.) La diminution de salaire implique une diminution des
dépenses et donc de la demande générale. Cette réponse causerait une contraction encore plus
importante dans la demande. De plus, Keynes pensait que d’autres circonstances pour lesquels
une baisse des taux d’intérêts pourrait ne pas avoir comme conséquence une relance de la
croissance : si la confiance dans les affaires et les attentes futures sont négatives, les
entreprises peineront à investir car ne verront pas l’intérêt à dépenser de l’argent qui ne saurait
16
fructifier dans le futur. Tout en acceptant et validant quelque part l’idée d’un retour à
l’équilibre sur le long terme, comme proposé par les écoles néoclassiques et autrichiennes,
Keynes préconise l’intervention de l’Etat sous forme d’une politique fiscale soutenue. D’après
son approche, l’Etat devrait intervenir lorsque les Crises ont lieu dans le but de conserver
l’utilisation efficiente du capital et de la main d’œuvre. L’Etat devrait être un Etat providence,
dans le sens où il n’interviendrait dans l’économie uniquement en cas de Crise, en cas de
dernier recours dans le but de limiter les dommages des récessions majeures. Cette pensée
économique, bien que présente aujourd’hui dans les principaux pays contemporains, a tout de
même ses limites qui doivent être prises en considération lorsqu’il va être question d’analyser
un marché. Premièrement, une hausse des dépenses fiscales implique une hausse de la dette
publique qu’il va falloir in fine rembourser. Il y a le danger pour les gouvernements de finir
asphyxiés par le remboursement de leur dette. Cette problématique est notamment d’actualité
avec les taux d’endettements des pays européens et des Etats-Unis; le défaut de la Grèce à
rembourser l’intégralité de sa dette a été un exemple phare des limites de cette politique
fiscale. Deuxièmement, les cycles économiques appelés par Keynes visent le court terme. Sur
le long terme, l’économie a de forte chance de revenir avec un effet de surchauffe sur
l’économie : une croissance économique rapide dont le rythme n’est pas soutenable sur le
long terme engendre diverses conséquences dont notamment l’inflation. Cette situation
s’explique aussi par le décalage entre le moment d’intervention de la politique fiscale
expansionniste et le résultat espéré qui intervient à un moment où l’économie a changé d’état.
De façon générale, les politiques fiscales prennent du temps pour être implémentées, ce qui
engendre un décalage entre leur effet souhaité et les effets réellement réalisés car ils ont lieu
alors que l’économie est dans un état différent.
Ces critiques sur la pensée Keynésienne ont été fortement discutées et contestées par
l’école de pensée Monétariste, sous l’égide de Milton Friedman (économiste américain né à
New-York le 31 Juillet 1912 et décédé le 16 Novembre 2006 à San Francisco), considéré
comme l’un des économistes les plus influents du 20e siècle. Le modèle Keynésien est tout
d’abord contesté car il ne prend pas en considération l’importance de la monnaie et plus
particulièrement de son offre. Si la monnaie croit trop rapidement, l’économie tendra vers un
boom insoutenable sur du long-terme ; si la monnaie croit trop lentement, l’économie tendra
vers la récession. La vision à court terme des Keynésiens est également mise à mal en ce
qu’elle ne considère pas les coûts des interventions du gouvernement sur le long terme.
Comme évoqué précédemment, une dette croissante et des intérêts trop élevés tendent à
17
l’asphyxie de l’Etat qui se répercutera sur les impôts et taxes prélevées, diminuant la
consommation générale et faisant, sur du long terme, rentrer l’économie dans une phase de
récession. Dernièrement, le timing des réponses du gouvernement est incertain et les effets
stimulant d’une politique fiscale expansionniste peuvent avoir lieu une fois la crise terminée
et ainsi causer plus de dégâts qu’en soigner.
Ainsi, d’après l’école Monétariste, les cycles économiques s’expliquent par des chocs
externes à l’économie et l’interventionnisme des gouvernements. D’après sa vision, il est
préférable de laisser l’offre et la demande trouver leur équilibre plutôt que de risquer de
causer de plus amples fluctuations économiques. L’Etat ou les banques centrales doivent être
présents pour conserver un taux de croissance de la monnaie modéré.
De récentes écoles de pensées économiques ont continué à apporter leur pierre à
l’édifice de la compréhension des cycles économiques en attaquant un nouvel angle
d’approche. L’école néoclassique, sous l’égide de Robert Lucas (économiste américain né le
15 septembre 1937 à Yakima dans l’Etat américain de Washington), a discuté les fondements
des modèles utilisés pour expliquer les cycles économiques apportant ainsi un aspect critique
sur les raisons qui tendent à influencer les cycles économiques et leurs effets. Lucas approuve
la vision de Friedman en ajoutant que les modèles utilisés devraient essayer de représenter les
actions des agents économiques avec une fonction d’utilité et des contraintes budgétaires, à
l’image des modèles utilisés en microéconomie. Cette approche de la macroéconomie cherche
des conclusions macroéconomiques de la maximisation de l’utilité des individus avec comme
hypothèse sous-jacente que les entreprises tendent à maximiser leur profit. Les modèles
néoclassiques sont dynamiques dans le sens où ils décrivent les fluctuations à travers plusieurs
périodes et présentent un équilibre général dans le sens où ils cherchent à déterminer tous les
prix d’équilibre plutôt qu’un seul prix. Cette approche globale des choses cherche à
comprendre l’évolution économique dans son ensemble plutôt que comme des situations au
cas par cas. Pour exemple, les modèles présentés par Edward Prescott et Finn Kydland ont un
agent économique qui fait face à des chocs externes à l’économie, tel qu’à la suite de
changements technologiques ou de changements de goûts des consommateurs, et par
conséquence optimise son choix pour atteindre l’utilité maximale. Si tous les agents agissent
de façon similaire, les marchés vont graduellement tendre vers un équilibre.
Les économistes Néo classiques, partent de l’idée que certaines recommandations
faites dans le passé était plutôt irrationnels et donc non cohérentes avec l’attitude des agents
18
économiques. Par exemple, si tout le monde est conscient que dans le cadre d’une récession le
gouvernement baissera les taux d’intérêts pour relancer l’investissement des entreprises, alors
pourquoi ces entreprises investiraient en dehors des phases de récessions ? Si la majorité des
entreprises pensaient cela, elles arrêteraient d’investir, causant ainsi une récession qui n’aurait
pas eu lieu. Dans cette idée, le gouvernement et ses politiques « contre-cycles économiques »
pourraient causer une récession. Les premiers modèles néoclassiques, qui n’incluaient pas
d’argent et étaient alors qualifiés de modèle à cycles économiques réels, concluaient que les
phases d’expansion et de contractions représentent des opérations efficientes de l’économie en
réponse à des chocs externes. Dans cette vision non monétaire, les cycles ont des causes
réelles telles que des changements technologiques et supposent que les variables monétaires,
tel que l’inflation n’ont pas d’incidence sur le Produit Intérieur Brut d’une nation. Ces
modèles reposent sur l’efficience des marchés, prônant ainsi que le chômage ne peut être que
de courte durée : mis à part le chômage frictionnel, qui est la part de chômage attribuable au
fait que les individus se retrouvent sans emploi parce qu’ils changent d’emplois et se
retrouvent pendant une durée très courte sans rien, si les marchés sont efficients, une personne
sans emploi est alors une personne qui ne veut pas travailler. Si une personne est sans emploi,
dans le cadre de marchés efficients, elle a juste besoin de baisser ses attentes en terme de
salaire jusqu’à ce qu’elle trouve un employeur. Cette approche est logique car si les marchés
sont parfaitement flexibles, tous les marchés doivent trouver l’équilibre et le plein emploi.
Ainsi, une personne est sans emploi si elle demande un salaire trop élevé et a donc une
fonction d’utilité maximisée par le fait d’avoir des loisirs et moins de consommation.
Cependant, l’observation faite pendant les récessions est tout autre : le fait que beaucoup de
personnes cherchent du travail mais soient incapables d’en trouver malgré une chute de leur
rémunération souhaitée démontre l’inexactitude de l’approche.
Ces derniers modèles donnent une relative plus grande importance à la demande générale que
la plus part des autres théories. Par exemple, l’importance de l’offre est limitée dans la théorie
keynésienne, surement car Keynes était fortement affecté par et focalisé sur la Grande
Dépression qui était une crise de la demande. Les modèles à cycles économiques réels
montrent que les chocs liés à l’offre, tels que les avancées technologiques, peuvent augmenter
le Produit Intérieur Brut potentiel d’une nation. Cependant, toutes les entreprises, au sein d’un
pays, ne peuvent adopter la nouvelle technologie d’un seul coup et donc l’atteinte de ce
potentiel se fera par des ajustements temporels. L’effet inverse est également un élément qui
19
sort de ces dernières théories : l’augmentation de prix d’une énergie fortement utilisée par une
nation va limiter l’offre et tendre à réduire le PIB potentiel.
L’inflation est souvent vue comme une des causes principales des cycles économiques
car lorsque les politiques monétaires finissent par être trop expansionnistes, l’économie croît à
un rythme non soutenable sur du long-terme, créant ainsi un gap inflationniste. Les
fournisseurs ne peuvent suivre la demande, les prix continuent à augmenter plus vite que la
normale : c’est l’inflation. En conséquence, la banque centrale devra souvent intervenir pour
limiter l’inflation en resserrant la politique monétaire, qui généralement se traduit par une
hausse des taux d’intérêts. Les taux augmentant, le coût de l’emprunt augmente et en cascade
la demande, plus précisément la part de consommation faite à crédit va ralentir. Cette réponse
va diminuer l’équilibre du PIB et peut résulter dans une récession. Dans la mesure où
l’inflation apparait être le déclencheur des choix réalisés par les banques centrales, c’est une
part importante et un apport considérable des cycles d’activités modernes. Aussi, il semble
crucial d’incorporer cette notion monétaire à la croissance économique pour évaluer
l’évolution d’une entreprise.
Cet aspect inflation est le sujet principal d’un autre groupe de modèles d’équilibre
général dynamique que sont les Néo Keynésiens, qui à l’instar de l’école Néoclassique tente
de placer la macroéconomie sur un pied d’égalité avec la microéconomie. Par contraste avec
l’école néoclassique, l’école néo keynésienne suppose un ajustement lent des prix et salaires.
Les modèles néo Keynésiens montrent que les marchés n’atteignent pas leur équilibre
immédiatement et de façon lisse, mais plutôt par de petites imperfections qui laissent les
marchés en constant déséquilibre. L’interventionnisme de l’Etat, comme préconisée par
Keynes dans les années 30 peut être utile pour éliminer le chômage et amener les marchés
vers un équilibre. L’un des meilleurs exemples de cette imperfection est que les travailleurs ne
veulent pas voir leur salaire diminuer pour aider le marché à atteindre un nouvel équilibre.
Une autre possibilité, mentionnée par différents économistes, est l’explication par le « coût du
menu » : il est couteux pour une entreprise de modifier ses prix en permanence pour rendre le
marché clair, tout comme il serait couteux pour un restaurateur d’imprimer de nouveaux
menus tous les jours en fonction de la mise à jour des prix.
Ces dernières années, un consensus concernant les cycles économiques a commencé à
se construire en macroéconomie. Il est surement trop tôt pour dire que les économistes
s’accordent sur toutes les causes et remèdes aux fluctuations économiques, mais un cadre
20
général semble avoir émergé, qui englobe les approches néo classiques et néo Keynésiennes.
Le débat concernant les cycles économiques tend à être politisé, comme on peut le lire
aujourd’hui encore dans la presse, avec d’une part des gens contre l’interventionnisme de
l’Etat, qui le sont principalement car ils tendent vers des déficits budgétaires colossaux, et
d’autre part des personnes en faveur, qui sont principalement tournés vers l’allègement que le
gouvernement apporte aux larges chocs économiques. Dans le cadre de l’analyse financière,
les choix politiques ne devraient pas rentrer en considération, mais elle devrait plutôt prendre
en compte les politiques en vigueurs et leurs potentiels effets sur l’économie car elles
participent en grande part aux cycles économiques.
L’action d’un gouvernement est ainsi un élément à prendre en compte comme
encadrement de l’économie dans lequel une entreprise se situe. Sa valeur va ainsi être affectée
par les décisions prises par le gouvernement en place. De façon générale, les effets liés au
gouvernement sont des éléments incontournables qui doivent être pris en considération dans
l’évaluation d’une entreprise.
Une chose est certaine : l’économie n’est pas parfaitement modélisable car trop complexe,
trop enchevêtrée de décisions, d’effet, de conséquences. Il est donc compliqué de prévoir
l’avenir économique avec suffisamment de certitudes pour prédire sereinement une tendance
sur les marchés. Les crises financières et économiques ont mis en lumière des éléments qui
peuvent être résumées en trois points : une euphorie générale des marchés alliée à une
spéculation accrue, une économie en croissance soutenue et finalement des politiques
gouvernementales à effet de levier. Sur la base de ces éléments, il est possible de ressentir et
même de justifier par des données économiques qu’une crise est sur le point d’avoir lieu. Ces
éléments permettent d’établir un schéma caractéristique pour le retournement de marché dans
le cas d’une crise financière. Cependant, ces éléments ils ne se suffisent pas pour prédire une
tendance de marché de façon générale.
Néanmoins, ces éléments ont permis aux différentes écoles économiques de mettre en
avant des éléments caractérisant les fluctuations de l’économie, des éléments de
compréhension de l’évolution des marchés qui permet à l’analyse fondamentale de prévoir
des tendances. La notion primordiale mise en lumière et soutenue par toutes les écoles et que
les prix des biens et par extension les prix des titres financiers tendent à se rapprocher d’une
valeur réelle, modulo des effets économiques qui viennent rendre plus ou moins efficient le
transfert d’information inscrit dans les échanges entre agents économiques.
21
I - 2 Les modèles d’évaluation
Avant de rentrer dans l’étude des modèles qui reprennent la logique tant
macroéconomique que microéconomique, il est important de regarder les barrières à
l’évaluation des actifs sur un marché. Ces barrières ont leur importance dans la logique de
l’analyse financière.
Des barrières à l’évaluation financière et de l’importance de l’efficience des marchés
L'action d'une entreprise, titre de propriété représentatif de cette dernière, est censée
refléter son état financier. L'équation comptable Actifs = Fonds Propres + Dettes met en
évidence la part représentative de cet actif financier dans le financement des entreprises. Par
extension et d'une manière sommaire, en supposant une proportion respectée des éléments du
bilan, l'augmentation du prix d'une action représente l'évolution positive de l'industrie de
l'entreprise, toute chose égale par ailleurs. A contrario, la baisse du prix d'une action
représente l'évolution négative de l'économie de l'entreprise.
Autrement dit, soit une entreprise fictive valorisée le 01/01/XX à 1 million d’euros,
financée à 100% par du capital et divisé en 100 actions de 10.000€ chacune. Cette société
détient 1 million d’euros d’actifs, de par l’équilibre entre actif et passif. D’un point de vue
comptable, chaque action représente 1% des biens de l’entreprise. Lorsque l’entreprise crée de
la valeur, cette valeur est ajoutée à l’actif et mise au résultat à distribuer au passif. Ce résultat
vient ainsi augmenter la valeur de chaque action. Une création de 100.000€ de richesse vient
ainsi augmenter la valeur de chaque action de 1.000€ (100.000€ / 100 actions). Sur cette base
nait l'idée qu'une action, cotée avec un prix de marché est censée refléter sa valeur. Le point
de vue comptable vient ainsi poser l’une des bases de l’évaluation d’une entreprise en prenant
la valeur passée des biens de l’entreprise. Le point de vue de l’analyse financière vient
compléter cette vision en y ajoutant les attentes futures espérées. La théorie générale
d’évaluation d’une entreprise par l’analyse financière est que sa valeur est la somme de ses
cash-flows futurs actualisés. Cette théorie vient incorporer l’espérance future de croissance
économique de la société évaluée dans la mesure où l’entreprise sera rentable si elle arrivera à
générer des cash-flows positifs dans le futur ; si elle n’arrive pas à générer de richesse,
l’entreprise est vouée à disparaître. Aussi, cette richesse ne peut se faire que si l’entreprise
dispose de moyens de productions, tels que ses machines ou encore sa main d’œuvre, qui
doivent être financés. Le financement est ainsi le nerf de la guerre.
22
L’évaluation d’une société par l’analyse financière se fait par le biais des systèmes financiers
qui consistent en des marchés ainsi que des intermédiaires financiers qui y opèrent. Ils
permettent aux intermédiaires financiers agissant pour leur compte ou celui de leurs clients
directement sur les marchés de résoudre des problèmes de financement ou de gestion du
risque. De façon générale, un système financier sera efficace s'il permet aux investisseurs,
aux emprunteurs, aux hedgers et aux traders de pouvoir trouver une solution à leur problème
de financement ou également, sous un autre angle, de gestion de leur risque. Dans le cadre des
marchés actions, un système financier est qualifiable d'efficace si les entreprises peuvent
facilement avoir accès aux capitaux dont elles ont besoin pour soutenir leurs projets, si les
investisseurs peuvent facilement déplacer leur argent vers le futur en échange d'une espérance
de gain positive, au travers de dividendes et/ou d'une plus-value.
Considérons deux économies et leur système financier respectif. La première
économie (économie A), comparable à celle d'un pays développé, dispose d'un système
financier fortement développé dans lequel les acteurs de l'économie peuvent échanger à
travers des intermédiaires financiers relativement facilement. La deuxième économie
(économie B) quant à elle ne dispose pas des moyens nécessaires pour mettre en place et
maintenir un système d'échange financier efficace. Dans l'économie A, les actifs et contrats
pour apporter des solutions aux problèmes financiers de ses acteurs sont à disposition, son
système financier a ainsi des marchés qualifiables de complets. Les coûts pour arranger les
transactions sont faibles de par le nombre élevé d'intermédiaires se concurrençant ; le système
financier est alors qualifiable d’opérationnellement efficient. Son efficience informationnelle
suppose, elle, que dans cette économie les prix des actifs et des contrats reflètent toute
l'information relative aux valeurs fondamentales. L'économie B quant à elle n'est pas capable
de fournir cette efficience.
Les bénéfices d'un système financier fonctionnant correctement sont immenses. Dans
notre économie A, les investisseurs désirant déplacer leur argent vers le futur peuvent
facilement se connecter à des entrepreneurs nécessitant des fonds aujourd'hui pour développer
de nouveaux produits et services. De façon similaire, les entrepreneurs qui éviteraient de se
lancer dans leurs projets dans l'économie B à cause du risque trop élevé peuvent, dans
l'économie A, transférer ces risques à d'autres qui sauront les supporter. En augmentant le
nombre d'acteurs ayant accès aux besoins d'autres acteurs, les transactions peuvent prendre
place entre un nombre plus élevés d'étrangers, les bénéfices d'échanger peuvent ainsi dériver
d'un grand nombre de rencontres.
23
Les acteurs financiers bien informés rendent les prix informationellement efficaces de
par leurs échanges. Quand ils achètent des actifs qu'ils pensent sous-évalués, ils tendent à faire
monter leur prix. Inversement, quand ils vendent des actifs qu'ils pensent surévalués, ils
tendent à faire baisser leur prix. Les interventions des acteurs agissant ainsi sur les marchés
financiers font refléter les informations qu'ils détiennent concernant la valeur des actifs. Par
contraste, l'économie B, disposant d'un système financier œuvrant pauvrement a de grandes
difficultés à allouer les capitaux à disposition dans l'économie parmi les nombreuses sociétés
qui peuvent s'en servir. Dans de telles économies, les transactions financières se limitent aux
connaissances, aux cercles familiaux et amicaux car les demandeurs de capitaux ont du mal à
trouver une contrepartie digne de confiance qui honorera ses engagements. Cette économie
n'utilise pas les ressources où elles sont les plus productives, elle les gaspille, elle n'est pas
allocativement efficiente.
Comment les prix reflètent précisément les informations fondamentales dépend du
coût pour obtenir ces informations et de la liquidité disponible aux échangeurs bien informés.
Le cadre réglementaire de l'économie A, avec ses standards comptables et ses
exigences de déclarations qui produisent des informations significatives et opportuns, réduit
les coûts pour obtenir ces informations et ainsi permet de réaliser une analyse fondamentale
plus précise, par laquelle il n’y a que peu de bruit d’information. Plus l'information est
disponible facilement, plus elle est retranscrite dans le prix des actifs. Les marchés liquides de
l'économie A permettent aux échangeurs bien informés de réaliser leurs ordres à bas coût. A
contrario, dans l'économie B les coûts élevés pour passer des ordres en limitent le nombre,
ayant pour conséquence de ne pas transmettre l'information, qu'ils véhiculent, au marché.
Dans ce cas, la rentabilité limitée par les coûts pour passer des ordres enlèvera de l'intérêt à
chercher ces échanges et donc les acteurs financiers n'engageront pas de ressources pour
collecter et analyser les informations et n'échangeront pas. Sans ces recherches et sans ces
échanges, les prix seront moins informatifs. Ainsi, plus un marché tendra à limiter les
barrières à l'échange, plus il facilitera les rencontres entre acteurs et plus il tendra vers une
efficience parfaite. La qualité d'un titre financier à retranscrire ses informations fondamentales
sur les marchés est ainsi fonction inverse des coûts à l'échange. La qualité de fonctionnement
d'un système financier est cruciale dans l'évaluation d'un titre.
La caractéristique principale rendant les marchés de l'économie A plus efficients
comparés à ceux de l'économie B est la régulation imposée par les agences gouvernementales
24
et supra-gouvernementales. Les régulateurs cherchent à promouvoir la justesse et l'ordre des
marchés sur lesquels les opérateurs échangent à des prix qui reflètent la valeur fondamentale
sans encourir de frais de transactions trop élevés.
Regrettablement, certaines personnes voleront d'autres personnes si la chance leur en
ai donné, surtout si la probabilité de se faire attraper est faible ou si les sanctions encourues
sont trop faibles. Le nombre de façon que les gens ont de frauder ou de détourner des
richesses aura tendance à augmenter avec la complexité des marchés qui croit et parce que les
clients des intermédiaires financiers ont moins de connaissance et de compétences
relativement aux professionnels qui les servent. Sur des marchés non régulés, les pertes dues à
des comportementaux délictuels seront plus élevés.
Ainsi, l’aspect de marchés efficients est un critère crucial pour l’évaluation des actifs
financiers, en appui des théories des différentes écoles de pensées économiques. Les
considérations à prendre en compte pour évaluer une action financière sont les coûts de
transaction et les coûts nécessaires à l’obtention de l’information. Ce point est important, car
il démontre l’existence d’un écart entre la valeur réelle, ou intrinsèque, d’une action et sa
valeur cotée. Dans un monde parfait où l’information serait instantanément traitée et
répercutée par tous les acteurs financiers et économiques du monde, sans aucune restriction
quant aux échanges, le prix de l’action serait alors équivalent à la valeur intrinsèque de l’actif
réel dont il est la représentation. Ceci n’étant évidemment pas le cas, l’approche de l’analyse
financière va se concrétiser en l’approche d’une valeur.
La modélisation : Outil de valorisation
L’analyse fondamentale rassemble et traite des informations pour pouvoir prendre une
décision d’investissement, incluant une recommandation d’achat, de vente ou une position
neutre. Les informations rassemblées et la façon par laquelle elles sont traitées dépendent de
l’objectif de l’analyse. L’analyse fondamentale utilise des informations concernant
l’économie, le secteur et l’entreprise comme base pour ses décisions d’investissement, tels
que les taux d’emploi, le Produit Intérieur Brut, les parts de marchés sectorielles ou encore la
croissance des revenus de l’entreprise.
25
Les modèles d’évaluation utilisés pour déterminer la valeur du capital d’une entreprise servent
à estimer sa valeur intrinsèque ou valeur fondamentale, qui est basée sur l’analyse de ses
caractéristiques et de ses fondamentaux. Les fondamentaux ainsi considérés dépendent de
l’approche d’évaluation utilisée ; dans une approche top-down, l’examen partira de
l’environnement économique, pour arriver à l’analyse des actifs d’une compagnie,
préalablement choisie dans un secteur prospère. Dans une approche bottom-up, un analyste
suivant un secteur anticipe les fondamentaux pour les compagnies du secteur afin d’en
déterminer une valeur. Qu’importe l’approche, l’analyse fondamentale questionne en réalité la
précision du marché à donner un prix à un actif équivalent à sa valeur fondamentalement
estimée. En partant du principe qu’une action cotée est sous-évaluée, l’analyse fondamentale
prédit qu’elle tendra à s’apprécier et inversement, une action cotée qui est surévaluée tendra à
se déprécier. Avec des target price (objectifs de prix) sur des périodes généralement de
plusieurs mois à un an, l’analyse fondamentale prédit une tendance de marché, soit à la
hausse, si l’actif est sous-évalué par rapport à sa valeur intrinsèque, soit à la baisse, si l’actif
est surévalué, soit neutre, si le prix de marché reflète assez bien la valeur intrinsèque du titre
financier. Ainsi est l’objectif de l’analyse financière lorsqu’il est question d’évaluer une
action cotée en Bourse : prédire une tendance.
L’analyse fondamentale se sert ainsi de modèles prenant en paramètres différentes
données marchés, secteurs et propres à l’entreprise évaluée. Ces modèles sont des
simplifications du monde réel. Deux principaux types de modèle sont utilisés par les analystes
financiers, selon le type de fondamentaux et de caractéristiques utilisés. Ces différents types
de modèles sont nécessaires pour permettre un recoupage des informations apportées et une
meilleure confiance dans l’estimation des valeurs intrinsèques.
Les premiers types de modèles sont les modèles dits de valeurs actualisées, ils estiment la
valeur intrinsèque d’une entreprise comme la valeur présente de ses futurs bénéfices espérés.
Ces modèles suivent le principe économique fondamental précédemment mis en lumière qui
formule que les individus reportent leur consommation, autrement dit, ils investissent, pour
obtenir des bénéfices futures supérieurs à une consommation actuelle. Les individus et les
entreprises réalisent des investissements parce qu’ils en espèrent un taux de rendement sur la
période d’investissement. Logiquement, la valeur d’un investissement devrait être égale à la
valeur actualisée des bénéfices futurs. Pour des actions ordinaires, l’actualisation de ses
cashflows, correspond à cette logique.
26
Le modèle le plus simpliste est le modèle d’actualisation des dividendes qui spécifie
que les cashflows futurs sont les dividendes associés à l’action ; la valeur d’une entreprise est
égale à la somme de ses dividendes futurs actualisés. Aussi, l’expression du Modèle de
Dividendes Actualisés est V0 = ∑ [Dt x (1 + r)-t], avec V0 la valeur de l’action aujourd’hui à
t=0, Dt le dividende espéré en date t et r le taux de rendement espéré. Au niveau de
l’actionnaire, les cashflows reçus d’une action incluent les dividendes et les gains réalisés sur
la vente future. Si un investisseur a l’intention d’acheter une action pour une année, sa valeur
actuelle et la somme de deux cashflows : le dividende de l’année en cours plus le prix de
revente de l’action espéré autrement dit, V0 = (D1 + P1) x (1 + r)-1
, avec P1 le prix espéré en
date 1. Le prix de l’action en P1 peut s’estimer de façon similaire avec le dividende espéré en
date 2 ainsi que le prix de revente espéré en date 2 soit P1 = (D2 + P2) x (1 + r)-1
. Par
substitution, on obtient ainsi la valeur de l’action en V0 = D1 x (1 + r)-1
+ (D2 + P2) x (1 + r)-
2. Par répétition de cet exercice de décomposition, on obtient la valeur en V0 = ∑ [Dt x (1 + r)
-
t] + Pt x (1 + r)
-t. En étendant la période de détention de l’action à une durée infinie, apparait
la formule représentant la formule V0 = ∑ [Dt x (1 + r)-t] présentant la valeur d’une action
comme la valeur présente de tous ses dividendes futurs. La considération d’un futur infini est
valide dans la mesure où les entreprises cotées en Bourse sont établies pour opérer à l’infini.
Ce modèle rencontre cependant un problème pour les entreprises ne distribuant pas de
dividendes, comme c’est le cas pour certaines entreprises mid-cap (entreprises à capitalisation
moyenne). Il en va de même pour les sociétés dont les dividendes futurs sont difficilement
estimables. Dans la pratique, beaucoup d’analystes préfèrent pour cela utiliser un modèle de
Free-Cash-Flow-to-Equity (FCFE) avec comme hypothèse que la capacité d’une entreprise à
distribuer un dividende devrait être reflétée dans l’estimation des cashflows plutôt que les
dividendes espérés. Le calcul du FCFE commence par le calcul des cashflows opérationnel de
l’entreprise auxquels sont enlevés les dépenses d’investissement et rajoutés les emprunts net.
L’avantage de ce calcul est que l’intégralité des données nécessaires sont disponibles à dans
les documents comptables de l’entreprise et l’estimation des FCFE futurs s’établi plus
facilement. Le modèle s’écrit ainsi similairement à celui des dividendes actualisés comme la
somme des FCFE futurs V0 = ∑ [FCFEt x (1 + r)-t].
Un autre problème plus évident lors de l’utilisation du modèle d’actualisation des
dividendes futurs est qu’il nécessite une estimation de séries de dividendes à l’infinie, ou au
moins sur une période suffisamment longue pour que le taux d’actualisation rende la valeur
présente nulle. Pour simplifier ce processus, les analystes financiers prennent l’hypothèse que
27
les dividendes vont évoluer à travers le temps à un rythme constant. Le Gordon Growth
Model (traduisible en Modèle de croissance de Gordon) est ainsi particulièrement approprié
pour évaluer les entreprises dans leurs phases de maturité, peu sensibles au cycle économique.
Avec l’hypothèse d’une croissance constante g, l’équation du modèle d’actualisation des
dividendes devient V0 = ∑ [D0 x (1 +g) x (1 + r)-t]. L’expression ∑ [D0 x (1 +g)] reprend les
cashflows futurs à l’infini qui croissent à un rythme g constant. Avec l’hypothèse que le taux
de rendement requis par les investisseurs r est strictement plus grand que le taux de croissance
g, la formule se transforme en la forme simplifiée du modèle de Gordon Shapiro et s’écrit V0
= [D0 x (1 + g)] / [(r - g)]. Ainsi, le Gordon Growth Model estime la valeur intrinsèque d’une
action comme la valeur actuelle d’une perpétuité croissante (si g = 0 on retrouve une
perpétuité classique). Vient alors la problématique de cette croissance constante et de son
estimation. Deux approches sont utilisées, une historique, l’autre plus déterminée. La
première approche détermine un taux de croissance à partir des dividendes passés avec une
régression linéaire. La deuxième approche reprend la logique du modèle FCFE et détermine le
taux de croissance comme le produit du retour sur investissement ROE et du taux de rétention
des profits b : g = b x ROE. Le taux de rétention des profits correspond à la part des profits
non distribués, et donc réinjectés dans l’entreprise pour ses investissements ; multipliés par le
retour sur investissement, il permet d’estimer cette proportion de réinvestissement accru par
l’effet de retour sur lui-même.
Les hypothèses ainsi soutenues par le modèle de Gordon Shapiro sont que
premièrement les dividendes représentent une bonne métrique à utiliser dans le but d’évaluer
une action. Deuxièmement, le taux de croissance des dividendes est éternel, autrement dit il
est perpétuel et ne change jamais. Troisièmement, le taux de rendement est constant à travers
le temps. Quatrièmement le taux de croissance est strictement inférieur au taux de rendement
requis. Ces hypothèses, bien qu’initialement venu apporter une amélioration par rapport au
modèle d’actualisation des dividendes futurs sont discutables car quelque peu trop simplistes
pour refléter les caractéristiques de l’entreprise à évaluer. De façon similaire au modèle
d’actualisation des dividendes futurs, le Gordon Growth Model n’est pas fait pour les
entreprises ne distribuant pas de dividendes.
Beaucoup d’autres modèles dérivent ainsi de l’hypothèse économique que la valeur
actuelle d’un actif correspond à l’actualisation de ses cashflows futurs. Certains modèles
prennent notamment en compte la situation de l’entreprise dans son cycle économique, dans
la mesure où les distributions de dividendes diffèrent d’un état à un autre. Même si chaque
28
modèle vient apporter sa particularité pour complémenter ses pairs et ainsi apporter une
précision dans l’évaluation d’une action, aucun modèle de cette famille n’est suffisamment
solide pour prédire avec exactitude la valeur intrinsèque d’une entreprise. La valeur des
dividendes reste en effet incertaine dans le futur, l’entreprise pouvant se retrouver dans une
situation où elle aura besoin de s’autofinancer en quantité supérieure à l’habitude. Cela a été
le cas pour beaucoup de sociétés cotés (ou non) dans les années suivants la crise de 2008. La
méthode d’évaluation perd également en efficacité si la société se trouve dans une situation
financière chancelante, avec des rendements futurs incertains.
Les deuxièmes types de modèles, qualifiés de modèles des multiplicateurs de marché,
se basent quant à eux sur des multiples de prix d’action ou de valeur de marché d’entreprise.
Le terme de multiplicateur fait référence à un ratio qui compare le prix d’une action avec un
flux monétaire ou une valeur qui permet l’évaluation de la valeur relative de cette action.
Cette méthode est principalement utilisée en tant que moniteur de marché : si le ratio tombe
sous une valeur spécifique, les actions sont alors identifiées comme candidates à l’achat, ou
inversement, si le ratio dépasse une valeur spécifique, l’action sera pour la vente. Un certain
nombre d’indicateurs sont ainsi utilisés par les analystes financiers, tels que le Price-to-
Earnings ratio (P/E), le Price-to-Book ratio (P/B), le Price-to-Sales ratio (P/S) ou encore le
Price-to-Cashflows ratio.
Une critique de tous ces multiplicateurs est qu’ils ne prennent pas en considération le
futur, ils ne se servent que des données présentes de la société, issues soit de la comptabilité
soit du marché (ex. capitalisation boursière). Cette critique est cependant contrée par
l’utilisation d’une variété de techniques incluant des prévisions de fondamentaux au
dénominateur. Le résultat obtenu peut remarquablement changer du multiplicateur calculé sur
la base des données comptables, présentant des valeurs présentes voir passées. Dans l’absence
de prévisions explicites de valeurs fondamentales, l’analyse résulte en une prévision implicite.
Un ratio multiplicateur est souvent associé à un fondamental de l’entreprise. Bien que
l’approche des ratios multiplicateurs soit fréquemment utilisée indépendamment des modèles
d’actualisation de cashflows futurs, le fondamental sélectionné est généralement obtenu à
travers une méthode d’actualisation de cashflows, associés au fondamental. La connexion
entre les deux peut approfondir l’appréciation des facteurs de l’analyse qui affectent la valeur
du multiple. Cela permet également d’expliquer certaines raisons pour des « incohérences »
dans les multiples qui n’impliquent pas forcément un mauvais pricing. En partant du modèle
29
de Gordon Shapiro et en rappelant l’idée que le prix de marché d’une action tendra vers la
valeur intrinsèque de l’action, soit, en supposant que la valeur intrinsèque V0 est égale au prix
P0 : P0 = [D0 x (1 + g)] / [(r - g)]. En posant D1 = D0 x (1 + g), D1 équivalant ainsi les
dividendes espérés l’année suivante, on obtient P0 = [D1 / [(r - g)]. Pour obtenir le Price-To-
Earnings ratio (P/E), on incorpore les revenues E (pour earnings = Résultat Net) en divisant
de chaque côté P0/E1 = (D1/E1) / [(r - g)]. Le rapport de D/E est également connu comme le
ratio de redistribution de dividendes p, ou, la part du résultat net redistribué sous forme de
dividendes. P0/E1 = (D1/E1) / [(r - g)] = p / [(r - g)]. L’équation ainsi obtenue indique que le
P/E ratio est inversement lié au taux de rendement et positivement lié au taux de croissance.
Autrement dit, une augmentation du taux de rendement implique une baisse du P/E ; une
augmentation du taux de croissance implique une aussi du P/E. De même, le P/E ratio est
positivement lié au taux de distribution de dividendes p. Le multiple met ainsi en lumière le
lien fait entre l’activité de l’entreprise, l’espérance future de sa croissance et le prix du titre.
Une autre approche des ratios multiplicateurs, plus largement utilisée, est la méthode
des comparables. Cette méthode compare essentiellement les valeurs relatives estimées en
utilisant des multiples ou des valeurs relatives de multiples. L’hypothèse économique
rationnelle sous-jacente à cette méthode est la Loi du prix unique, qui stipule que tous les
actifs identiques devraient se vendre au même prix. La méthodologie implique l’utilisation
d’un ratio multiplicateur pour évaluer si un titre est soit normalement évalué, soit sous-évalué
ou surévalué en relation à une valeur benchmark du multiplicateur. Les choix pour le
benchmark peuvent inclure le multiple d’une entreprise similaire, c’est-à-dire dont l’activité
est fortement ressemblante ; une moyenne ou encore une valeur médiane issue du secteur
d’activité de l’entreprise. Identifier une entreprise benchmark individuelle ou encore le niveau
de secteur dans lequel se trouve l’entreprise peut présenter un défi important. Beaucoup de
grandes entreprises opèrent plusieurs lignes business ; l’échelle et la portée de leurs
opérations peut ainsi grandement varier. La contrainte est de trouver une entreprise
suffisamment similaire dans ses activités d’après plusieurs nombres de critères et de
dimensions, comme la taille, les lignes produits, les services, les taux de croissance. De plus,
cette approche s’attarde à trouver des écarts entre l’entreprise évaluée et son secteur. Une fois
une différence significative trouvée, l’analyse doit investiguer plus en profondeur ces
contradictions pour comprendre l’origine même de l’écart. Une extension de cette approche
est la comparaison de l’entreprise avec elle-même à travers le temps. L’évolution de ses ratios
indique la tendance que prend l’entreprise, en termes de croissance, de rentabilité, de
30
dividendes distribués ou conservés pour son développement, etc. L’avantage majeur de cette
approche par les comparables des prix multiplicateurs est qu’elle permet facilement de
réaliser une comparaison relative, contre le marché ou d’autres comparables, et contre elle-
même à travers le temps. L’analyse va ainsi tendre à indiquer contre quelle entreprise ou
moyenne de marché le titre est sur ou sous-évalué vis-à-vis d’un autre titre ou secteur. Dans le
cadre d’une comparaison d’un titre vis-à-vis de son secteur ou d’un pair, l’analyse va être
limitée en ce qu’elle ne fera qu’indiquer une valeur par rapport à un autre titre et non une
valeur propre à l’entreprise.
Les marchés actions, bien qu’ayant une forte efficience, ne peuvent retranscrire en
temps réel la valeur vraie d’un titre financier. Lorsqu’il est question d’évaluer une action
cotée en Bourse, l’analyse financière va ainsi se donner comme mission d’indiquer l’écart
avec lequel une action coté diverge de sa valeur intrinsèque, autrement dit, d’estimer la valeur
intrinsèque d’un titre et de la comparer à son prix coté avec comme idée que la cotation tendra
in fine à se rapprocher de la valeur intrinsèque du titre. En cas de sous-évaluation, l’analyse
aura comme conclusion que le titre s’inscrit dans une tendance haussière ; dans le cas d’une
surévaluation, l’analyse conclura à une tendance baissière. Une conclusion est également
valable dans le cas où la valeur intrinsèque estimée serait sensiblement identique au prix de
l’action : le titre se trouve dans une tendance neutre ; l’analyse fondamentale sera alors dans
l’attente d’informations neuves.
L’analyse fondamentale est dépendante des données à sa disposition, qu’elles
proviennent de l’économie en générale, qui aura un impact plus ou moins direct sur la société
évaluée, qu’elles proviennent du secteur dans lequel se situe l’entreprise, et dans lequel elle
aura des interactions avec ses concurrents, ses fournisseurs, ses clients, ou encore des données
propres à l’entreprise, qu’elle retrouve au travers de ses différents états financiers et, de façon
générale, des décisions du management.
Pour en arriver à une conclusion quant à une tendance de marché, l’analyse financière
va considérer trois aspects autours desquelles elle va étayer un point de vue: les éléments
comptables de l’entreprise évaluée seront la base de l’analyse et serviront à comprendre la
valeur « passé » de l’entreprise : comment l’entreprise a installé son business, et évolué à
travers le temps. Les espérances de croissance attendues, représentant l’espérance de gains
futurs, serviront quant à elles à estimer ce qui peut être attendu de l’entreprise, la croissance et
les gains qu’elle peut encore apporter. Finalement, reste la valeur que le marché donne au titre
31
financier, qui, une fois l’évaluation intrinsèque du titre réalisée, permettra de projeter l’action
dans le futur et d’indiquer si le titre va à la hausse ou à la baisse.
II - L’APPORT DE L’ANALYSE TECHNIQUE
Les fondements théoriques de l’analyse technique
L’analyse technique est une boite à outil qui se base sur des historiques de cours. Elle
permet d’analyser de manière pertinente les tendances boursières en matérialisant, sous forme
de graphique, le comportement de la rencontre entre les acheteurs et les vendeurs d’un actif
financier. En outre, l’analyse technique essaye de comprendre et d’évaluer le comportement
des intervenants de marché. Elle trouve son efficacité lorsque le marché est inefficient car les
opérateurs de marché sont submergés par leurs biais psychologiques lors de prises de
décision en situation d’incertitude. Ainsi, l’analyse technique s’appuie sur des fondements
théoriques que l’on peut retrouver chez les tenants de l’analyse comportementale et
psychologique. En effet, l’école comportementaliste contredit l’école néo-classique sur la
théorie de l’efficience de marché.
Les néo-classiques considèrent que le cours d’un actif ne peut s’éloigner très
longtemps de sa valeur fondamentale car les arbitragistes corrigent ces anomalies de marché
et le cours revient ainsi à sa valeur fondamentale. Néanmoins, les comportementalistes
considèrent que certains phénomènes restent inexpliqués par les seuls fondamentaux.
Alors comment expliquer ce décalage de cours d’un actif financier de sa valeur
fondamentale ?
En reprenant les travaux de KAHNEMAN et TVERSKY en 1979, sur la théorie des
perspectives aléatoires, nous allons essayer de comprendre quels sont les facteurs qui
influencent les agents économiques, lorsqu’ils sont en situation d’incertitude lors de leurs
prises de décision. En effet, les opérateurs de marché sont soumis à de nombreux biais
psychologique propre à la psychologie humaine que nous allons étudier.
32
II – 1 L’analyse comportementale : les biais psychologiques
1.1 Les biais cognitifs
Les biais cognitifs portent sur l’importance de nos connaissances et de nos croyances
dans le processus décisionnel. Il montre que les opérateurs de marché ont souvent recours à
des raccourcis cognitifs lors de la prise de décision. Les individus vont se référer à des
heuristiques. Ce sont des règles empiriques qui permettent de simplifier le raisonnement en
matière d’analyse et de prise de décision dans le but de gagner du temps. De ce fait, les
individus ne prennent pas en compte tous les éléments qui leurs sont à leurs disposition. Dans
la précipitation, ils prennent donc des positions erronées car ils n’ont pas été rationnels dans
leur raisonnement.
Le biais d’ancrage
Le biais d’ancrage défini le fait que la prise de décision est influencée par le contexte
dans lequel elle a été prise. En effet, on retrouve fréquemment ce biais dans le cas où une
décision a été prise en situation d’incertitude. La disponibilité immédiate de l’information met
les individus sur le même piédestal mais l’interprétation peut être différente d’un individu à
l’autre. Un investisseur qui joue un titre à la hausse prendra ses gains dans la zone de
résistance. A contrario, un investisseur qui joue un titre à la baisse prendra ces bénéfices sur la
zone de support. L’analyse technique permet donc de renforcer la pertinence du biais
d’ancrage en apportant un soutien visuel sur ces zones de support et de résistance.
Le biais de conservatisme et la dissonance cognitive
Le biais de conservatisme met en avant l’individu sur son autorité dans la prise de
décision. En effet, l’individu porte une importance à ses connaissances notamment quand sa
prise de décision concorde avec celle-ci. Deux composantes se définissent : la composante
affective qui caractérise les émotions et la composante cognitive relative à la connaissance et
la croyance. Les idées ancrées d’un décideur se renforce par les croyances qui concordent
avec les informations obtenues. La composante émotionnelle se forment par le regroupement
croyance et de savoir renforcé dans l’esprit d’un individu.
33
La dissonance cognitive évoque la situation où laquelle l’individu est en contradiction
avec les infos obtenues et avec les croyances et les connaissances ce qui le met dans un état
de stress difficile à gérer. On en dégage l’idée selon laquelle la perception d’un individu est
sélective. En ignorant les infos, l’individu va réduire cette dissonance cognitive. De manière
globale, plus l’investigation de l’investisseur est importante et plus il lui est difficile de
changer son positionnement. Dès lors, l’individu élimine toutes les infos qui sont en
contradiction avec ces croyances et connaissances. La dissonance cognitive semble supprimer
toute objectivité de l’individu.
La loi des petits nombres
Les probabilités sont efficaces lorsque l’échantillon étudié est important. Cependant,
certain intervenant de marché utilise un faible échantillonnage pour en tirer une loi générale.
C’est une erreur en matière de probabilité car en situation d’incertitude ces opérateurs
sont submergé par leurs biais cognitifs et ne tiennent pas compte de la loi des grands nombres.
Ces individus transforment les probabilités et surpondèrent certains événements dont la
probabilité d’occurrence est pourtant faible et inversement, ils ont tendance à sous-pondérer
certains évènements dont la probabilité d’occurrence est pourtant forte. La loi des petits
nombres met en avant l’efficacité de certaines figures chartistes qui permet de repérer
clairement cette réaction des investisseurs.
Le biais momentum
Il démontre qu’un individu se base sur des évènements qui se sont passés récemment
pour prendre leur décision. On remarque que l’investisseur est optimiste dans un marché
haussier et pessimiste dans un marché baissier. Il pense que la hausse récente va se poursuivre
et inversement dans le cas d’une baisse, il envisage que la baisse récente va se poursuivre.
Dans ce cas de figure, il néglige totalement la loi des grands nombres et émet sa prévision à
partir d’une série courte de données. Les acheteurs se positionnent à la hausse lorsqu’un actif
financier progresse à la hausse. La hausse entraine la hausse et arrivé sur le sommet de
l’ascension, d’autres acheteurs vont entrer dans le marché en passant que la hausse va
continuer. Néanmoins la force acheteuse s’essouffle et les acheteurs sont pris de panique car
les vendeurs ont pris le dessus et le cours de l’actif financier se retourne à la baisse. Ce
34
comportement est visible sur certains indicateurs techniques qui identifient ce retournement
de tendance.
1.2 Les biais émotionnels
Les bais émotionnels se réfère à la théorie de l’utilité espérée évoqué par NEUMANN
et MORGENSTERN. Cette théorie explique comment les investisseurs réagissent dans un
contexte incertain et remet en cause la théorie des néo-classique selon laquelle tout individus
est rationnel et omniscient. Les comportementalistes décrivent donc deux principales
caractéristiques mis en avant par la théorie de l’utilité espérée : un individu accepte plutôt
une perte aléatoire à une perte certaine et préfèrent un gain certain à un gain aléatoire. Il
pense qu’il est plus difficile pour les individus de maitriser leurs pertes que leurs gains.
Le biais de l’attribution personnelle
Le biais de l’attribution personnelle s’explique par le fait qu’un individu a recours à
une pensée magique pour initier sa prise de décision. En effet, l’individu refoule un sentiment
de supériorité à l’écart des autres individus et ce surplus d’optimisme le pousse à croire qu’il
est supérieur aux autres. Lorsqu’un individu utilise cette pensée magique lors d’une prise de
décision et que sont choix s’avère être juste, il en déduira que cela est uniquement la
conséquence logique de ces qualités personnelles. Tandis que si le résultat est contraire à sa
prise de décision, il portera systématiquement la faute sur le mauvais sors. L’individu ne
prend pas en compte la globalité du problème et s’induit en erreur car il est focaliser sur soi-
même et agit par conséquent de manière irrationnel.
Le biais dynamique
Les opérateurs du marché ont tendance à se fier aux résultats enregistrés
précédemment. Deux types de comportement en découlent : une série de gain occasionnerait
un sentiment d’invincibilité et une prise risques plus considérable. Une série de perte
engendrerait un traumatisme et l’individu se repliera des marchés.
35
1.3 Les conventions
Définition
Une convention se définie comme un commandement ou un principe entre divers
personnes ou groupe. Ce commandement peut être officiel ou officieux. Il s’agit d’un principe
de conduite que toute personne connait, juge comme rationnel et à laquelle ils se conforment,
même si elle n’est pas toujours fondé scientifiquement. Dans une situation de doute, il est très
difficile même voire impossible pour un investisseur de prévoir la progression des marchés.
Effectivement, dans cette situation, un individu accepte les codes de la collectivité même s’il
n’y adhère pas personnellement, car les refuser est une menace d’être mis à l’écart.
Une convention symbolise une régularité d’état d’esprit pour des investisseurs placé
dans une situation semblable. Face à cette situation, ils vont avoir le même comportement
pour décider en situation de doute. La convention donne les moyens de gérer cette situation et
principalement de se décider. Car il pense, ou même pense savoir, comment les autres
investisseurs pourrait réagir dans un contexte incertain.
Conditions à la formation d’une convention
Pour qu’une convention prenne forme, il faut que la plus part des individus y adhèrent.
L’individu initiateur de la convention espère que les autres individus y adhèrent également.
Si, les autres individus y adhèrent également, on décrit ce phénomène de prophéties
autoréalisatrices. Ce phénomène explique donc le fait qu’un individu peut générer une règle
de conduite qui sera suivie par les autres individus même si cette dernière n’a aucun
fondement scientifique.
La convention en question est donc renforcée et sa crédibilité dépend de la confiance
que portent les autres individus à son égard. Ce phénomène irrationnel peut expliquer
pourquoi on remarque des variations de prix d’un actif financier de sa valeur fondamentale
qui ne peuvent être expliqués par la seule analyse fondamentale.
L’irrationalité peut être à l’origine de formation de bulles spéculatives lorsque les
opérateurs de marché sont pris au piège par leurs biais psychologique mais ce n’est pas la
raison principales de la formation de ces bulles spéculatives. D’après les comportementalistes,
l’irrationalité des investisseurs est un facteur essentiel dans l’inefficience de marché. Pour
eux, elle serait à l’origine de ces décalages de cours entre la valeur boursière et la valeur
36
fondamentale. Malgré la diffusion quasi instantanée de l’information à l’ensemble des
individus, il existe des disparités informationnelles d’individu à un autre. En effet, certains
individus, issue de grandes institutions, peuvent avoir des informations privilégiées pour
laquelle les autres individus n’ont pas accès. Dans un contexte incertain, ces derniers vont
suivre l’individu qui s’est positionné sur la nouvelle convention en contradiction avec le
consensus dominants. On peut alors parler de comportement moutonnier, de rationalité
mimétique ou encore de rationalité autoréférentielle. Tous les individus se basent sur une
règle fausse qui finit par être rationnelle lorsque son utilisation devient massive.
Ce comportement peut être assimilé à la célèbre étude de KEYNES sur le concours de
beauté qui met en évidence le phénomène pour lequel les individus vont adopter le même
comportement pour se fondre dans la masse et en vue de ne pas être marginalisé par le refus
de cette mode. Néanmoins, les modes ne durent jamais très longtemps et changent assez
fréquemment. C’est pourquoi, l’individu doit être attentif et être sur le qui-vive pour pouvoir
anticiper ces changements de mode. La convention est conforme dès lors que les investisseurs
soutiennent toujours les signaux fournis de cette règle. Il va de soi que les investisseurs
devront toujours vérifier la viabilité de cette convention.
Ainsi, les biais psychologiques expliquent de manière pertinente pourquoi il subsiste
des décalages entre le cours bousier d’un actif financier et de sa valeur fondamentale.
Néanmoins, les biais psychologiques n’est qu’un facteur par mis d’autres et il ne peut à lui
seul, expliquer les raisons de cette divergence cours.
La formation d’une convention
Une convention prend vie lorsqu’elle s’oppose au consensus dominant. En effet, il faut
que la convention indique un changement de marché contraire au consensus dominant. Dans
une éventualité haussière les investisseurs vont s’offrir le pessimisme ambiant et dans une
éventualité baissière ils vont vendre l’optimisme ambiant du marché.
Confirmation d’une convention
La confirmation d’une convention réside sur l’importance que porte l’ensemble les
investisseurs à cette dernière et surtout, de l’approbation du marché dominant à son égard. La
37
confirmation de la convention est déterminée donc par la confiance que lui accordent le
marché dominant et les opérateurs de marché qui la compose.
La fin d’une convention
Cette étape est aussi celle où la convention arrive à son apogée, car elle est partagée
par la totalité de la communauté financière, Plus l’irrationalité est à son sommet et plus la
convention est forte. La modification de celle-ci peut se faire de manière brusque ou lente.
Durant un krach boursier, beaucoup d’opérateurs réalisent de très mauvaise opération.
Ces intervenants sont forcés de voir le changement de convention et vont se mettre à la
recherche d’une nouvelle. Une convention peut mettre du temps à changer car l’ancienne est
toujours solidement consolidée dans les esprits. Les opérateurs professionnels s’aperçoivent
que les investisseurs les acceptent avec moins d’entrain. Ils vont donc exploiter cette
information pour initier des positions qui seront les prémices de la nouvelle convention.
1.4 L’analyse psychologique
Il est assez courant en bourse que les opérateurs cherchent une explication à la suite
d’un fort mouvement de marché. L’analyse psychologique est un moyen par lequel on peut
prévoir certains comportements à l’origine de ces retournements majeurs de tendance. De
plus, dans le marché financier actuel, il est courant de constater de nombreuses divergences
entre le consensus dominants des experts et des professionnels par rapport au marché ambiant.
Ce constat peut paraitre étrange surtout de la part de l’école néo-classique mais on
peut l’expliquer du fait que le marché a anticipé avant le consensus dominant, l’évolution des
fondamentaux. En partant du principe que le marché a toujours raison, on peut dire que celui-
ci peut être considéré comme un baromètre avancé de l’économie et surclasse les prévisions
des experts. L’analyse technique permet, à l’aide de ces outils graphiques, de repérer le
dominant ambiant du marché en fonction de signaux élaborés par l’analyse chartistes.
Le phénomène des prophéties autoréalisatrices n’explique pas à elle seule tout les
décalages de cours entre la valeur boursière et la valeur fondamentale. En effet, l’analyse
psychologique permet de détecter de manière très précise le comportement des interlocuteurs
38
de marché. La récurrence de ces comportements est identifiable par les graphiques et se
traduisent sous forme de signaux. Grace à l’historique de cours, les graphiques permettent
donc de distinguer certain comportements récurrents car les biais psychologiques sont figés
dans le temps. En effet, on peut retrouver des comportements similaires sur des espaces temps
différents. Néanmoins, les prophéties autoréalisatrices peuvent être remises en question car
certaines configurations graphiques étaient déjà visibles avant même l’apparition de l’analyse
technique sur les marchés financiers. On peut en conclure que ces configurations graphiques
peuvent être indépendantes de l’approche de l’analyse technique. Deux hypothèses émergent
de ce constat :
Les prophéties autoréalisatrices soutiennent l’idée sur laquelle
l’analyse technique doit son efficacité essentiellement aux biais cognitifs. Néanmoins,
ce n’est qu’une composante parmi tant d’autres. La récurrence des comportements
vient appuyer ce fait.
L’hypothèse de l’efficience des marchés est aussi remise en cause. En
effet, cette théorie nie le fait que l’on peut se baser sur les évènements passés pour
établir une prévision sur le futur. Néanmoins, certaines configurations graphiques
permettent de constater des phénomènes récurrents et de les prévoir, même si ces
comportements ne se reproduisent pas à l’identique sur l’espace temps.
L’analyse technique est donc un outil efficace pour les investisseurs car elle permet de
comprendre de manière précise les émotions des autres investisseurs. Néanmoins, son utilité
peut être faussée car elle ne protège ces investisseurs aguerris de leurs propres erreurs.
La réaction du marché
En effet, un actif financier peut s’équilibrer voir même chuter face à de bonnes
nouvelles. Plusieurs facteurs permettent de mieux comprendre ce phénomène. Cette
information a déjà été devancée par les intervenants, et sa mise à disposition ne fait que
confirmer ce que les investisseurs connaissaient déjà. Ainsi, elle n’est pas considérée comme
suffisamment favorable pour le marché. Cette perception dominante sur le marché est
extrêmement baissière et ne suffira pas au retournement du consensus dominant. Elle
permettra, dans le meilleur des cas, de causer un rebond de l’actif financier mais la tendance
baissière continuera irrémédiablement sa trajectoire. Le marché peut donc progresser
39
complètement à l’inverse des nouvelles publiées, mais il peut aussi être dans la même ligne
directrice, sans raison apparente.
Il est souvent possible d’expliquer un mouvement antérieur, car quelques éléments
qui n’étaient pas visible le deviennent. Quelques individus peuvent avoir une information
privilégiée. Ces personnes exploitent cette information en vendant ou achetant l’actif
financier, amenant un mouvement des cours. Le bouleversement de consensus dominant peut
être une autre explication. Il n’est pas inhabituel d’avoir une cascade de nouvelles négatives et
de voir malgré tout une continuation du mouvement haussier.
Pourquoi cette écart entre le comportement des marchés et la pensée dominante ?
Entre les deux, les opérateurs de marché devront systématiquement favoriser le
consensus de marché à celui des experts. Il peut aussi exister un consensus dominant qui
n’est pas fatalement accentué par des nouvelles publiées. L’opérateur ne doit pas chercher la
cause de cet écart mais toujours prendre la température générale du marché.
Dans un marché peu liquide, certains investisseurs vont engendrer la rupture d’un
support ou d’une résistance, dans l’intention d’avoir un mouvement baissier ou haussier. La
raison est seulement stratégique ou technique, et banni toute raison d’ordre fondamentale.
L’effet de mode a une conséquence non négligeable sur le cours boursier quoi qu’en disent les
partisans de la théorie néo-classique. Par exemple, quelques titres qui offrent de bonne
espérance, peuvent être négligés par les opérateurs car ils ne sont pas revendiqués par les
analystes et les journaux financiers.
Les bulles spéculatives
André ORLEANS soutient le principe d’une rationalité autoréférentielle qui selon lui,
serait à l’origine de bulles spéculatives rationnelles. En effet, ces bulles peuvent se construire
même en présence d’individus complètement rationnels. Les investisseurs iront
rationnellement s’appuyer sur la convention dominante pour se positionner sur le marché car
ils pensent qu’il est nécessaire de prendre la tendance de marché plutôt que de fonder leur
raisonnement à partir de la valeur fondamentale. La présence d’erreurs répétitives est une
caractéristique de la nature humaine. Le fameux adage boursier « Laissez courir vos profits et
coupez rapidement vos pertes » insiste sur la prévention de ces comportements naturels qui
40
dicte la pensée de l’individu et l’induit souvent en erreur. Ainsi, on peut constater que les
investisseurs sortent trop tôt de leur position gagnante et attendent longuement avant de
mettre fin à leurs positions perdantes.
Une bulle spéculative peut se définir comme le fait que les investisseurs sont pris par
une euphorie généralisée pour plusieurs raisons économiques et se positionne à l’achat pour
soutenir une tendance fortement haussière. En effet, les périodes de bulles boursiers reflètent
le comportement mimétique des intervenants de marché ainsi qu’une abondance de liquidité.
Dans ce contexte, les banques sont moins restrictives et accordent des prêts plus facilement à
des projets auxquelles elle aurait refusé en temps normal. Ces bulles sont facilement
identifiables par les outils chartistes et fond l’objet d’une récurrence dans l’espace temps car
les marchés financiers sont cycliques. On la considère comme le reflet des comportements
irrationnels généralisés des opérateurs de marché. Ce phénomène coïncident avec le constat
fait par l’école conventionnaliste et comportementaliste. A la différence, les orthodoxes met
en avant que la variation d’un cours bousiers de sa valeur fondamentale serait la cause de
l’apparition de ces crises non anticipée. En effet, ces bulles boursières ne devraient pas existé
car les arbitragistes sont censés éliminer toute inefficience de marché. Néanmoins, les faits
nous montrent que ce phénomène est notamment fréquent et durable et n’ayant aucunes
explication fondamentale concrète. L’irrationalité des intervenants de marché peut être la
cause principale de la volatilité des cours boursiers.
Les leçons à tirer de l’analyse psychologique
L’analyse psychologique permet aux intervenants de marché d’établir des règles de
conduite qui les amènent à des prises de décisions simples et pertinentes. L’analyse
psychologique est un indicateur puissant qui permet de jauger efficacement le sentiment
dominant d’un marché.
Lors de la publication d’une nouvelle information, qu’elle soit bonne ou mauvaise,
l’individu devra attendre et analyser la réaction des autres individus avant de prendre position
sur le marché. En toute logique, le cours d’un actif financier tend à s’apprécier lorsque
l’information est positive et inversement, il aura tendance à se déprécier lorsque
l’information reçue est négative. En cas d’irrégularité du marché, l’individu devra être
vigilant et réagir de manière approprié en fonction de la réaction des autres individus face à
41
cette situation irrégulière. Il devra donc d’une part, identifier la tendance en cours et d’autre
part, analyser le comportement des autres individus post publication de l’information pour
effectuer un diagnostique exacte du sentiment de marché.
Comportement de marché après une nouvelle négative : annexe 1
Comportement de marché après une nouvelle positive : annexe 2
On en conclu donc que la publication d’une nouvelle information n’est pas un fait
important pour l’investisseur, mais au contraire, c’est plutôt la manière dont elle est perçue
par l’ensemble des opérateurs de marché qui va être une information capitale sur le dominant
ambiant du marché. De ce fait, l’individu va adapter sa position en fonction du dominant
ambiant du marché et ne doit surtout pas rechercher une explication à ces fluctuations de
marché qui pourraient altérer la justesse de son analyse. En effet, certaines fluctuations
boursières importantes sont uniquement dues à un changement du consensus dominant ou tout
simplement causées par un effet de panique des investisseurs.
Néanmoins, l’analyse psychologique reste limitée car elle ne permet pas de situer
précisément ces retournements de tendances. Cette limite est palliée par l’analyse graphique
qu’offre l’analyse technique, car elle donne la possibilité de visualiser certains signaux qui
permettent à l’investisseur de repérer précisément les points d’entrées et de sorties de ces
fluctuations de tendances boursières.
Malgré tout, l’analyse psychologique est un moyen non négligeable qui permet de
guider l’investisseur des évolutions de comportements de marché. Elle met en avant le fait
qu’il existe fréquemment des écarts important entre la valeur boursière d’un titre et de sa
valeur fondamentale. Elle explique notamment que les informations publiées qui sont
extrêmement positives ou négatives ne sont pas spécialement un fort signal d’achat ou de
vente. Les investisseurs expérimentés soulignent le fait qu’il faut raisonner à l’inverse des
magazines ou des journaux. En effet, il faut penser à acheter un actif financier lorsqu’il est
décrié par les médias et être vendeur lorsqu’ils sont extrêmement optimistes sur la valeur. Ce
raisonnement prend tout son sens sur le fait qu’il n’y a plus assez d’investisseurs pour soutenir
la hausse de la valeur car l’ensemble des investisseurs sont déjà acheteurs de la valeur. De ce
fait, la probabilité de la baisse du titre est plus grande que celle de continué à la hausse. C’est
pourquoi, l’individu doit mettre en place une méthode d’analyse personnelle qui lui permettra
d’anticiper la réaction du marché face aux différentes publications. Dans le cas où le marché
42
réagit contrairement aux publications, l’individu devra alors être sur le qui vive afin de
détecter si la convention dominante actuelle n’est pas en train de changer.
1.5 Origine et principes de l’analyse technique
Cette méthode est suivie par de nombreux opérateurs. Il est donc crucial de bien la
connaitre pour mieux appréhender la rationalité ou l’irrationalité des autres intervenants de
marché. Les professionnels de marché, loin d’être eux-mêmes naïfs, l’utilisent et la
recommandent. Même en supposant que l’analyse technique soit une approche peu fondée
scientifiquement, et dont l’efficacité s’expliquerait essentiellement par les croyances des
opérateurs, cela ne suffirait pas à la discréditer. Les phénomènes des prophéties
autoréalisatrices montrent que même en présence d’un modèle faux, il suffit que les gens y
croient pour qu’il fonctionne. L’analyse technique n’est pas une méthode infaillible.
Elle permet simplement d’analyser la psychologie des intervenants et de définir les
stratégies appropriées à mettre en œuvre. L’analyse technique est une méthode pragmatique
comme une boite à outils qui se focalise essentiellement sur la psychologie des opérateurs.
Elle sert surtout de baromètre de marché et permet de détecter les mouvements
excessifs des foules. Il s’agit simplement d’un outil d’analyse efficace des mouvements de
marché.
Les protagonistes de l’analyse technique
Munehisa HOMMA
L’analyse technique est une ancienne méthode introduite en Orient par Munehisa
HOMMA, père des bougies japonaises. Grand trader du XVIIIème siècle, il aurait accumulé
une richesse en spéculant sur les prix du riz. D’après la légende, HOMMA aurait engorgé plus
de 100 transactions successives gagnantes. Ce personnage à l’origine des bougies japonaises
définit cette méthode comme étant la représentation d’une somme de figures qui
indiqueraient, de façon très visuelle, la durée du consensus dominant, les périodes de doutes
ainsi que d’indécision. Elles peuvent aussi servir à déceler les phases de retournements. En
43
1980 Steve NISON, ancien analyste technique chez Merrill Lynch, importe le concept de
l’analyse technique en Occident.
Charles DOW
Charles DOW est l’un des précurseurs de l’analyse technique en Occident. Il considère
que les marchés financiers sont capables de prévoir l’ensemble des données économiques
avec une certaine longueur d’avance. Dès lors, l’analyse technique sert de baromètre à
l’ensemble des intervenants de marché. En effet, elle permet donc à ces derniers d’identifier
clairement l’état de santé d’une économie et d’en déterminer son évolution future. De plus,
DOW fut l’un des premiers individus à identifier les mouvements de délits d’initiés à l’aide
des indicateurs graphiques.
Ralph Nelson ELLIOT
ELLIOT est l’inventeur du célèbre indicateur graphique, les vagues d’ELLIOT. En
effet, après avoir étudié en profondeur les cours boursiers, il constate de nombreux points
communs entre les tendances boursières et le mouvement des vagues des océans. La théorie
des vagues d’ELLIOT met en évidence le fait que les fluctuations de marchés suivent une
certaine logique et respectent de ce fait, une loi universelle. En effet, il fait le rapprochement
entre la cyclicité des marchés financier et le nombre d’or de FIBONACCI et en déduit qu’il
existe une harmonie similaire dans les tendances boursières. Cette approche a permis de
développer plusieurs indicateurs graphiques qui permettent d’identifier les zones de
retracements des prix d’un actif financier lors des fluctuations boursières ainsi qu’en
déterminer leurs objectif de prix.
Richard W. SCHABAKER
SCHABACKER est l’un des premiers à avoir mis en avant le swing trading, méthode
qui consiste à acheter ou vendre un actif financier uniquement en se référant de l’analyse du
cours et de ces oscillations. Cette approche a permis de comprendre les différentes phases des
tendances boursières en partant du constat que l‘évolution des cours boursiers ne s’effectue
44
jamais de façon linéaire. En effet, une forte hausse ou une forte baisse ne peut durer
éternellement et est fréquemment interrompue par des phases correctives. SCHABACKER
étudie en profondeur les oscillations des cours et constate que les meilleures opportunités de
marché sont celles correspondant à l’identification des points d’entrée sur le marché les
moins risqués qui suivent la trajectoire de la tendance dominante.
J. Welles WILDER
WILDER est l’un des premiers à avoir développé et incorporé des méthodes
mathématiques dans l’analyse technique. En effet, à partir des mathématiques, il a su
développé ainsi de redoutables indicateurs graphiques qui sont aujourd’hui utilisés par
l’ensemble de la communauté financière. En reprenant certaines théories physiciennes, il met
ainsi en évidence le fait qu’une tendance qu’elle soit haussière ou baissière s’essouffle au fur
met à mesure de sa progression avant d’attendre son sommet en phase haussière ou le creux
en phase baissière. De ce fait, il émane que les fluctuations boursières peuvent être anticipées
par de puissants indicateurs graphiques dont leur efficacité réside sur la manière de prendre la
température du marché et de déterminer ainsi si la tendance en cours est saine ou est en train
de s’essouffler. Cette approche va apporter une réelle information sur le marché ambiant et va
permettre à l’analyse technique de s’émanciper à grande échelle dans le monde financier
grâce à la réelle efficacité de ces indicateurs techniques.
Les principes de l’analyse technique
L’analyse technique est une boite à outils pour laquelle l’ensemble des configurations
techniques représentés par les graphiques se reportent essentiellement à la dimension
psychologique des intervenants de marché ainsi qu’à plusieurs principes fondamentaux.
John MURPHY dans son ouvrage, « L’analyse technique dans les marchés financier »
paru le premier janvier 2004, parle des différents fondements de l’analyse technique.
D’après son étude, il en dégage certains principes primordiaux qui sont très parlant :
L’analyse technique se base sur les faits et non sur ce qu’il parait ou aurait du
paraitre. Cette méthode se réfère essentiellement au marché et non sur les phénomènes
45
exogènes qu’il l’influence ou qu’ils peuvent l’influencer. En effet, cette approche étudie les
fluctuations boursières et non les raisons de ces fluctuations.
L’analyse technique étudie clairement la psychologie des intervenants de
marché et ne se réfère à aucunes sources d’ordre fondamental. De ce fait, ce n’est pas la
publication d’une information qui va être étudiée mais au contraire la réaction des
intervenants de marché face à cette dernière.
L’analyse technique contredit la théorie des néo-classique sur le fait qu’il
existe bien des variations de cours qui peuvent durer plus ou moins longtemps entre la valeur
boursière et la valeur fondamentale.
L’analyse technique estime que la valeur boursière d’un actif financier dépend
essentiellement de la loi de l’offre et la demande. En effet, la valeur boursière se définit par la
rencontre entre la force acheteuse de l’actif et de la force vendeuse. Néanmoins la valeur
boursière n’est pas à l’abri de certains facteurs irrationnels qui émanent la loi de l’offre et e la
demande.
En résumé, l’analyse technique permet de comprendre comment se comporte le
marché. On peut dire ainsi que le marché regroupe l’ensemble de ces comportements que l’on
vient de citer ainsi que, de la différence d’interprétation des intervenants de marché.
L’analyse fondamentale est un déterminant du prix d’un actif financier parmi d’autres
facteurs et ne peut expliquer à elle seule la variation de prix et ce dans une durée plus ou
moins longue. L’analyse technique détermine des tendances boursières qui peuvent fluctuer à
la hausse et à la baisse et ce qu’en raison d’un changement de consensus dominant de marché
provoqué par le rapport de force acheteurs versus vendeurs. Les outils graphiques de l’analyse
technique permettent d’identifier clairement les tendances boursières. La cyclicité du marché
financier peut être assimilée aux comportements de la nature humaine. De ce fait, il n’est rare
de retrouver certains comportements qui se répètent sur des espaces temps différents car les
émotions humaines sont immuables. Il n’est pas vain de noter que certains comportements
d’euphorie sont suivis par des comportements de panique. En outre, l’analyse technique se
concentre sur les émotions des intervenants de marché et essaye de capter la réaction de ces
derniers face aux publications officielles et ou officieuse.
46
Loi de l’offre et de la demande
En reprenant la fameuse citation de Napoléon BONAPARTE, « Un schéma vaut
mieux qu’un long discours », on peut dire que les outils graphiques de l’analyse technique
sont la clé de réussite de cette dernière qui trouve, dans ces représentations, toute la crédibilité
qu’on lui doit. Ces graphes prennent sources grâce à l’historisation dans le temps de la
rencontre entre acheteurs et vendeurs, qui sont pour l’analyse technique, la source de base des
fluctuations boursières. En effet, si le cours d’un actif financier progresse à la hausse, on dira
que se sont les acheteurs qui ont pris le dessus face aux vendeurs. Inversement, si le cours
évolue à la baisse, on dira que se sont les vendeurs qui sont supérieurs aux acheteurs.
L’analyse technique et l’analyse fondamentale convergent dans le même sens.
Néanmoins, leurs points de vue divergent quand à la détermination du cours boursier. Pour les
fondamentalistes, les opérateurs de marché sont rationnels et par ce fait, se positionne sur le
marché uniquement à partir de la valeur fondamentale de l’actif financier.
A la différence, les défenseurs de l’analyse technique ne réfutent pas la notion de la
valeur fondamentale en soi mais explique qu’il peut exister un décalage plus ou moins
important du cours avant que le prix converge vers sa valeur fondamentale.
L’analyse technique se concentre essentiellement sur le rapport de force qui se réfère à
la loi de l’offre et de la demande et essaye d’en capter ces variations. On peut très bien dire
que l’analyse technique cherche simplement à savoir qui des haussiers ou des baissiers va
rempoter le rapport de force.
L’analyse technique trouve sa crédibilité aussi par l’appuie de la théorie des
conventions. En effet, cette dernière démontre qu’il n’en n’est rien irrationnel d’incorporer
dans son diagnostique des facteurs qui n’ont aucun lien avec l’analyse fondamentale. Pour
eux, les cours évoluent selon des tendances, dont la durée peut être courte ou très longue et
ceux, en raison de l’existence d’une convention. Le changement de tendance peut s’expliquer
de deux façons :
Une convention peut être amenée à disparaitre si la communauté financière ne
la soutienne plus.
L’effet de massue qui porte bien son nom. En effet, lorsqu’un actif financier est
soutenu par l’ensemble des intervenants de marché, il n’y a plus de force pour maintenir la
47
tendance haussière et de ce fait, la moindre publication négative déclenchera une vente
massive de l’actif financier et ceux, à cause de la panique des intervenants de marché.
Les fluctuations boursières peuvent être donc anticipées du fait que les intervenants de
marché commentent systématiquement les mêmes erreurs et par conséquent, réagissent de
manière irrationnelle contre leur gré.
La finance comportementale appuie les hypothèses de l’analyse technique
Pour les partisans de l’analyse technique, la fiabilité des configurations graphiques est
déterminée par l’existence de comportements récurrents des intervenants de marché. Ces
comportements sont déterminés par l’approche comportementaliste de manière plus
approfondie. Les tenants de l’analyse comportementaliste confirment l’existence de biais
psychologique et contredisent ainsi l’hypothèse de rationalité des intervenants de marché
revendiqué par les néo-classiques. En effet, les biais psychologiques influencent l’individu à
tel point que ces biais lui sont difficiles à maitriser. L’analyse comportementale converge
dans le même sens que l’analyse technique, sur la possibilité d’un comportement irrationnelle
d’un individu, pour lequel les biais psychologiques ont un impact sur ce dernier.
Les biais cognitifs donnent une explication cohérente sur le comportement volatil des
marchés. Ce n’est pas étonnant de constater que certain opérateurs de marché, ayant une
méthode d’analyse béton, ne gagnent pas forcément à tout les coups. C’est pourquoi les
analystes techniques s’intéressent principalement à la dimension psychologique des
intervenants de marché. D’après eux, l’analyse technique est une méthode efficace en raison
de la présence de comportements récurrents sur les marchés financiers. Son efficacité
résiderait donc au niveau de la psychologie des intervenants de marché pour laquelle les
configurations graphiques sont en mesure d’identifier clairement la récurrence des
comportements de ces opérateurs. Il va s’en dire, qu’il existe bien un lien entre l’analyse
technique et l’analyse comportementale.
48
II – 2 Les forces et faiblesses de l’analyse technique dans la détermination
des tendances.
2.1 Les forces de l’analyse technique
Il est difficile pour de nombreux intervenants institutionnels d’admettre l’usage de
l’analyse technique, car ils redoutent qu’on leur reproche un comportement peu professionnel.
Cependant, nous estimons qu’il s’agit surement de la méthode la plus compétente pour étudier
les marchés financiers et pour définir les tendances boursières. L’analyse fondamentale
participe à une valorisation des actifs financiers, toutefois elle néglige totalement l’aspect
psychologique de la variation des cours boursières. L’analyse technique est un instrument
indispensable. Cette technique essaye d’appréhender la psychologie dominante d’un marché à
l’instant t, et se veut cohérente. L’analyse technique est pragmatique et censé aux yeux des
conventionnistes, d’après lesquels, les intervenants de marché vont se décider en priorité par
rapport au consensus dominant. De plus, les intervenants de marché estiment que l’élément
essentiel sur les marchés financiers, est de toute évidence, la dimension psychologique
collective et individuelle.
Les supports et les résistances
Les support et résistances sont des signaux issus de l’analyse graphique. Les supports
peuvent être définis par le fait où les acheteurs veulent renverser la tendance baissière et les
résistances, par le fait où les vendeurs veulent renverser la tendance haussière.
A l’aide de ces signaux, il devient ainsi possible d’anticiper les variations de cours
d’un actif financier à court terme. Dès lors, il devient possible d’émettre des prévisions à court
terme sur des divergences de tendances boursières grâce à la présence de ces signaux
récurrents. Les supports et résistances sont des niveaux où les rapports de forces entre
acheteurs et vendeurs montent en puissance et le vainqueur entrainera un fort retournement de
marché. Lorsqu’il ya cassure d’un support ou d’une résistance on qualifie ce terme de
breakout.
Cet outil permet donc à l’analyse technique de dire qu’il existe des phénomènes
récurrents à court terme pour lesquels, elle est en mesure de les identifier et de les anticiper.
49
L’analyse technique permet donc de prévoir à court terme certain comportements
récurrents qui explique le décalage d’un actif financier de sa valeur fondamentale.
Néanmoins, cette dernière reprend son droit à long terme.
Les principaux facteurs de l’efficacité de l’analyse technique
Plusieurs éléments permettent de comprendre la réussite et la robustesse de l’analyse
technique, en voici les principales raisons :
La récurrence des comportements de chaque individu pourrait être aperçue sur
les graphiques boursiers et caractériserait ainsi l’élément qui exprime l’efficacité de cette
technique.
L’analyse technique ne devrait son efficacité qu’en ayant recours à la théorie
des phénomènes des prophéties autoréalisatrices.
Son efficacité serait liée à une combinaison de ces deux composantes.
L’hypothèse des prophéties autoréalisatrices supposent un suivi primordial de
l’analyse technique de certains investisseurs. Alors, l’efficacité de l’analyse technique se
définie par cette effet moutonnier des intervenants. Le biais d’ancrage, mise en avant par la
finance comportementale, apporte aussi une réponse venant améliorer l’hypothèse des
prophéties autoréalisatrices.
Les limites de la théorie de l’efficience des marchés
D’après plusieurs études menées en laboratoires, il se pourrait que la théorie de
l’efficience des marchés financiers ne soit pas fondée et qu’elle néglige l’aspect
comportemental des individus. Il en ressort que lors d’une expérience en laboratoire, des
individus radicalement rationnels, peuvent agir de manière irrationnelle même en ayant reçu
que des informations d’ordre fondamental sur la valeur de l’actif financier étudié. Dans la
logique fondamentaliste, le cours bousier ne doit pas dévier de sa valeur fondamentale.
Néanmoins, l’étude démontre que les individus vont vouloir obtenir l’actif à tout prix et par
conséquent, faire monter le prix de l’actif financier jusqu’à provoquer une bulle spéculative
boursière. Fort de constater un prix excessivement surévalué, les individus vont vouloir se
débarrasser de la valeur et vont provoquer un effet de massue que l’on peut assimiler à un
50
krach boursier. On constate donc grâce à cette expérience, que même des individus ayant les
mêmes informations d’ordre fondamental, peuvent tout de même être à l’origine de bulles
spéculatives boursières et de krach boursier. Cette étude démontre que la psychologie des
individus joue un rôle important dans la formation des cours boursiers et que l’on peut
remettre en cause la théorie de l’efficience des marchés mise en avant par les
fondamentalistes. Cette expérience est un argument qui vient renforcer l’approche de
l’analyse technique sur le fait, que le plus important, dans la détermination de cours d’un actif
financier, n’est pas de connaitre la valeur fondamentale mais au contraire de savoir comment
les autres opérateurs de marché la perçoivent comme vraie. Le comportement récurrent des
opérateurs de marché explique en partie l’efficacité de l’analyse technique. Elle se base sur le
fait qu’il existe des biais psychologiques pour lesquels, elle est capable d’illustrés
graphiquement la récurrence de certain comportement. La dimension psychologique des
opérateurs de marché se trouve comme figée quelque soit l’espace temps et le type de
marché. On peut dire ainsi que les fluctuations boursières trouvent en partie leur explication à
cause des émotions des opérateurs de marché pour lesquelles, ils lui sont difficilement
maitrisables. L’analyse technique sert ainsi d’un outil de travail pour les intervenants de
marché pour qu’ils puissent mettre en place une stratégie de positionnement sur le marché
fiable et efficace.
L’existence de tendances boursières est appuyée par les conventionnistes.
L’école des conventions explique pourquoi certain intervenants de marché prennent
des positions d’achat ou de vente alors même que le cours d’un actif financier est sous évalué
ou sur évalué. Un individu rationnel ne devrait pas en temps normal se positionner aux
alentours de ces niveaux par contre d’après les conventionnistes, il est certainement rationnel
de prendre position quand on est quasiment certain que les autres opérateurs de marché vont
prendre la même position sur un actif financier. De ce fait, l’individu va émettre sa prévision
en se basant sur le consensus dominant et exclu de son raisonnement à court terme, toute
valeur fondamentale. Cette approche converge dans le même sens que celle apportée par
l’analyse technique sur le fait qu’il existe des tendances boursières sur les marchés
financiers et dont la durée peut être plus ou moins longue et pour lesquelles, elles ne sont pas
forcément expliquées par la seule analyse fondamentale. De plus, l’analyse technique ne tient
pas compte de la valeur fondamentale d’un actif financier car elle émet l’hypothèse que toute
51
l’information disponible à un instant t doits se retrouver sur le cours de l’actif financier en
question. Cependant, l’existence de comportement récurrent sur les marchés financier serait
essentiellement due à des comportements humains qui se répètent au cours du temps.
L’analyse technique est donc un outil d’analyse cohérent et fiable qui se base sur des
phénomènes récurrents pour lesquelles l’analyse comportementale et la théorie des
conventions confirment ses principes de bases.
2.2 Les faiblesses de l’analyse technique
L’utilisation de l’analyse technique peut varier d’un individu à un autre
L’analyse technique est utilisée comme un outil permettant à ses utilisateurs de prévoir
les moments où un actif financier va s’écarter sans aucune raison de sa valeur fondamentale.
C’est pourquoi, les analystes financiers sont toujours sur le qui vive pour appréhender ces
décalages. L’ensemble des utilisateurs de l’analyse technique sont sur le même piédestal en
matière d’information en partant de l’hypothèse que toute l’information est comprise dans le
cours. En effet, ces derniers utilisent les graphiques qui reprennent l’historique des cours d’un
actif financier et donc la performance de chaque intervenant de marché résiderait sur
l’utilisation de cet outil dont les performances peuvent variées d’un individu à l’autre. C’est
pourquoi le fait de disposer de la même information par l’ensemble des individus ne les
protège en rien d’une différence d’interprétation de chacun d’entre eux. Cette dimension
psychologique renforce encore plus l’analyse technique dans son raisonnement et l’efficacité
de sa méthode d’analyse mais elle ne protège en rien ses utilisateurs de leurs propres erreurs
de discernement.
L’analyse technique a-t-elle des bases théoriques solides ?
L’analyse technique peut être remise en cause par le fait qu’elle serait peut être à
l’origine des décalages de cours d’un actif financier par rapport à sa valeur fondamentale.
Pour se faire, l’analyse comportementaliste a mis en évidence trois types d’opérateurs de
marché qui pourraient en être la cause :
52
Les opérateurs incrédules, qui utilisent des méthodes d’analyse peu pertinentes,
sont submergés par leurs biais psychologiques.
Les opérateurs de marché qui établissent uniquement leur raisonnement qu’à
partir de données fondamentales en vendant des actifs surévalués et achetant des actifs sous-
évalués.
Les opérateurs de marché peu scrupuleux qui utilisent la faiblesse des individus
naïfs ou novices afin de prendre profit de leurs lacunes en manipulant le cours d’un actif
financier en fonction de leur stratégie.
D’après l’analyse comportementale, les utilisateurs de l’analyse technique sont des
individus naïfs qui se basent essentiellement sur des croyances et non sur un modèle
mathématique fiable. De ce fait, ces individus favorisent ainsi donc le développement de la
volatilité sur les marchés financiers car ils obstruent toutes opportunités d’arbitrages qui
corrigeraient de toute évidence les imperfections de marché. L’analyse technique serait donc
remise en cause par le comportement de ses utilisateurs.
Une méthode très critiquée
Le monde académique porte une approche critique sur l’analyse technique. En effet,
l’analyse technique serait la cause de comportements irrationnels des intervenants de marché.
On peut évoquer ainsi le phénomène de joueur de casino que l’on peut qualifier également
d’overtrading ou de suractivité spéculative. Ce phénomène se traduit par le comportement
d’un individu qui fait face à ces émotions lorsqu’il tente de récupérer le capital investit après
avoir subit une succession de pertes lors de ces prises de positions sur le marché. Dès lors, il
va essayer de rattraper ses pertes en prenant des positions risquées et ceux jusqu'à perdre tout
son investissement. Malgré tout, cet argument ne permet pas de remettre en question
l’efficacité de l’analyse technique. En effet, l’individu qui se base sur la valeur fondamentale
peu connaitre la même désillusion, en utilisant la méthode fondamentale qui consiste à acheter
un actif lors de publication positive et de vendre un actif post publication négative.
Pour la théorie de l’efficience des marchés, certaines irrégularités de marché peuvent
apparaitre à court terme mais ces irrégularités ne sont qu’éphémères par l’intervention des
arbitragistes qui vont corriger ce phénomène. Néanmoins, avec les nouvelles juridictions sur
les marchés financiers, la concurrence est de plus en plus rude et ces opportunités d’arbitrage
53
sont de moins en moins présentes. De plus, l’utilisation massive de l’analyse technique
réduirait également ces opportunités d’arbitrage et provoquerait même des faux signaux par le
fait que certains utilisateurs aguerris profiteraient de la naïveté de certains utilisateurs de
l’analyse technique, pour se focaliser uniquement sur leur manque d’expérience.
Une efficacité menacée
L’efficacité de l’analyse technique serait essentiellement due à la présence de
prophéties autoréalisatrices. En effet, l’utilisation massive de l’analyse technique par la
communauté financière due en partie à la modernisation des outils informatiques, peut être à
l’origine d’une perte d’efficacité de cette boite à outils. Pour les néo classiques, certaines
poches d’inefficiences peuvent perdurer à court terme mais seront rapidement corrigées par
les intervenants de marché. Ainsi, l’utilisation massive de l’analyse technique peut conduire à
sa perte. En effet, cet effet de masse va restreindre les opportunités existantes voire les
estomper et son utilité de base sera rejetée par ces détracteurs par ce manque d’opportunité
qu’il était facilement repérable à l’aide des configurations graphiques. Il est important de
noter que la concurrence actuelle sur le marché est de plus en plus forte et de part ce fait, il
devient compliquer d’avoir un temps d’avance sur les autres opérateurs de marché surtout s’il
on se base sur des représentations graphiques connues de tous. L’approche de la théorie de
l’efficience des marchés met en évidence que l’utilisation de masse de l’analyse technique
n’est pas un avantage sur le long terme pour les opérateurs de marché qu’il l’utilise. La
spéculation se défini par le fait de prévoir une fluctuation de la tendance du marchés avant les
autres intervenants de marché. Dans le cas où l’ensemble des intervenants de marché se
positionnent tous au même moment pour acquérir un actif financier, l’évolution attendue de
cet actif sera en contradiction avec ces derniers par le simple fait qu’il n’y plus assez de force
pour accompagner le cours de l’actif en question vers le haut. De ce fait, la cassure d’un
support ou d’une résistance par quelques opérateurs de marché entraine des retournements
violents de tendance. Il n‘est pas rare de constater sur les marchés financiers actuels, la
présence de plus en plus de faux signaux qui induisent, la plupart des utilisateurs de l’analyse
technique, en erreur. Le problème provient du fait que certains opérateurs de marché se
focalisent essentiellement sur les émotions des autres opérateurs afin de profiter de leurs
faiblesses. De ce fait, ils provoquent la cassure d’un support ou d’une résistance uniquement
pour profiter de la panique des autres opérateurs sur ces niveaux psychologiques.
54
L’analyse technique est-elle en perte d’efficacité aujourd’hui ?
On constate de plus en plus la présence de faux signaux sur les marchés financiers
actuels en raison d’une utilisation généralisée de l’analyse technique. Les modifications
d’ordre structurel des marchés financiers semblent avoir porté atteinte à l’efficacité de
l’analyse technique. Les intervenants de marchés avertis ont su s’adapter à ces modifications
en mettant en place des outils d’analyse plus approfondie et plus complets. La popularité de
l’analyse technique devient son tendon d’Achille. En effet, l’utilisation massive de l’analyse
technique par l’ensemble des intervenants de marché qui utilisent cette méthode, va engendrer
une bataille sur la prise de position sur le marché autour des meilleurs niveaux d’entrée.
D’autant plus, que certains intervenants de marché vont utiliser ce constat à profit en
provoquant de faux signaux techniques. Ces faux signaux techniques peuvent être interpréter
par des gaps haussier ou baissier lors de la séance d’ouverture du marché qui sont en phase
avec les signaux acheteurs ou vendeurs sur les configurations graphiques avant qu’un
retournement violent de marché se produise. Les modifications d’ordre structurel des
marchés financiers actuel peuvent être une des raisons de la baisse de la volatilité des
marchés. Cette baisse de volatilité peut être aussi interprétée comme étant l’un des facteurs de
perte d’efficacité de l’analyse technique. En effet, les marché évoluent de la même façon que
les prix fluctuent.
Ainsi, nous pouvons mettre en évidence plusieurs raisons qui peuvent expliquer la
baisse de l’efficacité de l’analyse technique à nos jours :
L’accès à l’information est de moins en moins couteuse en partie en présence
de la concurrence et de la modernisation des outils informatiques.
L’accès à un logiciel d’analyse technique s’est de plus en plus démocratisé et
est rendu accessible par tous. De plus, certaines entreprises proposent des prestations à titre
gracieux comme ProRealTime ainsi que des accès à un flux en temps réel à des prix très
compétitif voire même gratuit. Chose qui était inimaginable à la fin du XXème siècle.
La baisse des frais de courtages ont permis la multiplication des prises de
position des intervenants de marché. Le nombre importants d’intervenants de marché et de
leurs transactions influencent les marchés et sont à l’origine de l’extinction des poches
d’inefficiences à court terme. Certaines configurations graphiques qui étaient efficaces par le
passé ne le sont plus aujourd’hui.
55
Le développement grandissant de l’internet et de son accès à haut débit ont
permis d’avoir un accès rapide de l’information et ceux, dans les quatre coins du monde. En
effet, les informations sont disponibles pratiquement au même moment pour les opérateurs de
marché dans les salles de marché que pour le simple particulier qui se trouve derrière son
ordinateur personnel. Chose inimaginable par le passée avant l’émergence de ces nouvelles
technologies.
L’efficacité de l’analyse technique semble avoir perdu de sa pertinence au début du
XXIème siècle. En effet, les outils de suivi de tendance de l’analyse technique semblaient
efficaces en vue d’un retour à l’équilibre du prix d’un actif financier vers sa valeur
fondamentale de façon plus ou moins lente. En effet, les tendances se justifiaient en raison des
différents risques assujettis aux arbitragistes. Ainsi, les nouvelles technologies ont permis
l’émergence d’un accès plus rapide à l’information et de l’utilisation généralisée des outils de
l’analyse technique par l’ensemble des intervenants de marché. L’avantage qu’avaient les
professionnels de la finance de marché semble être révolu par l’émergence de nouveaux
intervenants de marché, les particuliers, qui peuvent utiliser les mêmes outils qu’eux. On peut
donc en déduire que le changement d’ordre structurel des marchés financiers est la principale
cause de la baisse de l’efficacité de l’analyse technique. Il aurait ainsi deux impacts sur le
marché :
La baisse de la volatilité pendant les séances de marché.
Des variations de prix violents après la clôture des marchés représentées par la
présence de gaps haussiers ou baissiers.
On peut en conclure que les marchés financiers sont d’autant plus chaotiques
qu’auparavant et la durer d’une tendance boursière est de plus en plus courte. L’analyse
technique doit faire face à de plus en plus de faux signaux dont son efficacité d’analyse se
retrouve fortement impactée et donc diminuée.
56
Les prophéties autoréalisatrices
Le phénomène des faux signaux à court terme devient de plus en plus fréquent de part
leur multiplication sur le marché. Les changements technologiques en sont la première cause.
La théorie de l’efficience de marché reprend son droit, dès lors que la volatilité du
marché est extrêmement faible et dont les poches d inefficience sont rapidement évincées par
les professionnels avertis. Le phénomène des prophéties autoréalisatrices ne permet pas de
valider l’efficacité de l’analyse technique à long terme. Néanmoins, certaines configurations
graphiques telles que les bougies japonaises, les supports et les résistances, permettent de
mettre en évidence des signaux pour lesquels ils sont bien plus utiles d’analyser et de les
utiliser à long terme qu’à court terme. L’analyse technique parait être plus pertinente à long
terme alors qu’elle n’est pas utilisée pour, lors des prises de décisions. En effet, elle est plus
utilisée à court terme car le phénomène des prophéties autoréalisatrices converge sur le même
espace temps. Cette approche peut être remise en cause car les faux signaux sont bien plus
présent à court terme qu’à long terme et réfute ainsi la théorie des prophéties autoréalisatrices
sur le fait qu’une méthode marche lorsqu’elle est suivie par la majorité des individus.
Pour que la théorie des prophéties autoréalisatrices soit valable, il serait nécessaire que
la majorité des intervenants de marché utilise l’analyse technique. Les différentes études
démontrent une réelle efficacité de l’analyse technique à court terme mais les prévisions de
cette dernière ne sont pas justifiées à long terme. Par contre, si des études arrivent à prouver
l’efficacité de l’analyse technique à long terme, alors on peut réfuter la théorie des prophéties
autoréalisatrices et dire que l’analyse technique est un outil indispensable pour un intervenant
de marché, dans la détection précise de la psychologie de l’ensemble des intervenants de
marché. De ce fait, l’analyse technique retrouverait ainsi toute sa crédibilité et solidité, par
l’existence de comportements récurrents des opérateurs de marché qui permettent ainsi la
présence de certaines poches d’inefficience à exploiter.
Les prophéties auto réalisatrices peuvent en partie expliquer le succès de l’analyse
technique, mais ce succès grandissant devrait provoquer son échec à terme car les anomalies
de marché existantes seront éliminées par la concurrence. Les tests utilisés pour critiquer
l’analyse technique sont naïfs, ce qui est assez étonnant pour une approche de la théorie de
l’efficience des marchés qui considère l’analyse technique comme un modèle naïf. La critique
se focalise sur la méthode mais pas sur la personne et néglige la dimension psychologique. En
effet, elle ne permet pas d’expliquer pourquoi certaines personnes gagnent régulièrement en
57
utilisant l’analyse technique alors que d’autres personnes perdent en ayant recours aux mêmes
techniques. La maitrise de l’analyse technique semble insuffisante pour gagner, car
l’investisseur doit également jouer les probabilités et maitriser sa psychologie. Néanmoins, les
marchés ne sont pas efficients car les individus ne sont pas rationnels et provoquent des
décalages par rapport à la valeur fondamentale.
La théorie de l’efficience semble impuissante pour expliquer les tendances que l’on
retrouve fréquemment sur les marchés ainsi que certaines configurations récurrentes sur
lesquelles l’investisseur peut capitaliser. Elle néglige également la dimension humaine en
posant une hypothèse discutable selon laquelle tous les individus seraient parfaitement
rationnels. De plus, la concurrence est de plus en plus rude sur les marchés et les anomalies de
marché de plus en plus rares.
Paradoxalement, malgré cette forte concurrence, les tendances existent toujours sur les
marchés, ainsi que la présence de certaines figures graphiques. Les phases de consolidation
sont plus complexes et les opérateurs qui ne gèrent pas strictement le risque (stop-loss sous un
support ou sur une résistance) peuvent se faire sortir d’une position, alors même qu’ils avaient
bien anticipé le mouvement du sous-jacent.
Deux composantes jouent un rôle déterminant : les biais psychologiques récurrents des
investisseurs et les prophéties auto réalisatrices. Néanmoins, il reste des phénomènes
inexpliqués. La nature humaine est immuable. Les émotions ont toujours existé et existeront
toujours. Elles influencent de manière déterminante les cours boursiers, ce qui explique
l’existence de configurations graphiques récurrentes.
58
CONCLUSION
La prédiction d’une tendance est capitale dans le cadre des marchés actions. Les
acteurs financiers agissant sur ces marchés, bien qu’ils aient des attentes distinctes les uns des
autres, espèrent l’appréciation ou la dépréciation d’un titre financier. Qu’ils interviennent pour
parier à la hausse ou à la baisse une action, pour valoriser un titre ou encore pour comprendre
l’évolution des marchés actions, ils cherchent tous à répondre à une même question. Même si
leurs raisons varient, tous, ont comme objectif la détermination d’une tendance, qu’elle soit
haussière, baissière ou encore neutre. L’identification d’une tendance boursière est un élément
incontournable que chacun prend en considération et cherche à déterminer.
Les deux analyses, fondamentales et techniques, ont apporté leurs visions, leurs
éléments pour répondre à la question ainsi posée jour après jour par tous les intervenants des
marchés actions sans exception : dans quelle tendance s’inscrit telle ou telle action cotée en
Bourse ? Les fondements de l’analyse fondamentale divergent de ceux de l’analyse technique
en de nombreux points. L’approche fondamentale s’impose tout d’abord comme absolument
différente de celle de l’analyse technique en ce qu’elle va chercher à identifier la valeur
intrinsèque de l’action évaluée et la comparer à sa valeur cotée. Une tendance haussière
correspond à une sous-évaluation de l’action évaluée qui va in fine se rapprocher de sa valeur
intrinsèque. L’évaluation initiale de la valeur intrinsèque s’initie dans l’économie dans
laquelle se situe l’entreprise cotée. L’analyse fondamentale détermine la valeur réelle d’une
action comme la jonction d’éléments économiques distincts, d’une part macro-économique et
d’autre part micro économique. L’analyse technique explique les tendances de marché comme
des variations dus principalement à des effets psychologiques, tant rationnels qu’irrationnels.
Elle explique les variations de cours par des mécanismes psychologiques, basés sur la nature
humaine.
On peut reconnaître à l’analyse fondamentale deux grandes forces. L’analyse
fondamentale va inscrire l’action dans une tendance générale, large avec une précision
reconnue dans le monde professionnel. Deuxièmement, elle va expliquer les raisons de ces
tendances en se basant sur des éléments réels.
On peut également reconnaître à l’analyse technique deux grandes forces.
Premièrement, l’analyse technique va inscrire l’action dans une tendance, et conforter la
59
tendance indiquée par l’analyse fondamentale, mais sans pouvoir donner d’explication réelle
sur cette tendance. Deuxièmement, l’analyse technique va permettre d’indiquer une tendance
sur de petites amplitudes, là où l’analyse fondamentale, elle, ne saura se prononcer car elle ne
dispose pas d’éléments suffisamment fiable et précis.
Les deux analyses vont ainsi se compenser : la faiblesse principale de l’analyse
technique est de ne pas savoir donner d’explication sur l’origine réelle d’une tendance, elle ne
fait qu’appliquer des préceptes. L’analyse fondamentale va elle venir compenser cette
faiblesse en apportant des faits, des explications. Mais cette dernière ne saura se prononcer sur
des tendances trop courtes ou d’amplitudes trop faibles ; l’analyse technique viendra ici
soutenir sa sœur et combler sa faiblesse.
Il n’est ainsi pas nécessaire d’opposer systématiquement l’analyse fondamentale et
l’analyse technique, et ainsi perpétuer une guerre ancestrale. L’approche des deux analyses
devrait être vue comme complémentaire, car c’est dans cette complémentarité que naît une
meilleure justesse de l’analyse.
60
FICHES DE LECTURE
Recherches sur la nature et les causes de la richesse des nations, Tome 1, Adam Smith.
Œuvre considérée comme texte inaugural de l’économie politique elle met en avant des
concepts économiques aujourd’hui encore valables et qui forment une des bases indirectes de
l’analyse fondamentale.
La crise économique de 1929 – Anatomie d’une catastrophe financière, John Kenneth
Galbraith
De par son ouvrage, Kenneth Galbraith décrypte la crise économique de 1929 qui marqua la
finance. Sa description des évènements, réalisée dans les années suivant la crise, offre une
vision large des causes et conséquences, qui, une fois confronté aux connaissances actuelles,
met en avant des bases de l’analyse fondamentale.
Economics, CFA level 1 Curriculum.
Ouvrage décrivant et expliquant les concepts de la microéconomie, de la macroéconomie et
des échanges internationaux. Bien que très accès mathématiques, il offre une vision claire des
mécanismes économiques sur lesquels se base l’analyse fondamentale.
Equity and Fixed Income, CFA level 1 Curriculum.
Ouvrage présentant des concepts de l’évaluation d’entreprises, que ce soit pour la partie fonds
propres que la partie dettes.
KAHNEMAN et TVERSKY en 1979 sur la théorie des perspectives aléatoires :
http://www.academia.edu/2576027/La_theorie_de_la_perspective_de_Kahneman_et_Tversky
_Prospect_Theory_1979_
La théorie de l’utilité espérée de NEUMANN et MORGENSTERN :
http://fr.wikipedia.org/wiki/Th%C3%A9orie_de_la_d%C3%A9cision
La théorie néo-classique :
http://fr.wikipedia.org/wiki/%C3%89cole_n%C3%A9oclassique
61
Concours de beauté KEYNES :
http://fr.wikipedia.org/wiki/Concours_de_beaut%C3%A9_de_Keynes
André ORLEANS :
http://mondesensibleetsciencessociales.e-monsite.com/pages/notes-de-lecture/notes-de-
lecture-en-economie/andre-orlean-le-pouvoir-de-la-finance-ed-odile-jacob-1999.html
Minehisa HOMMA
http://www.traders-forex.fr/munehisa-homma.php
Charles DOW
http://www.trading-school.eu/glossaire-bourse/fiche-Principes-de-la-Theorie-de-DOW-69
Ralph Nelson ELLIOT
http://www.edubourse.com/guide-bourse/vagues-d-elliott.php
William Delbert GANN
http://www.traders-forex.fr/William-Delbert-Gann.php
Nombre d’or FIBONACCI
http://www.futura-sciences.com/fr/doc/t/mathematiques/d/larithmetique-et-les-
plantes_63/c3/221/p3/
Richard W. SCHABAKER
http://www.boursetrading.info/Richard-W-Schabacker-l-eminent-penseur-de-l-analyse-
technique_a12168.html
Welles WILDER
http://fr.wikipedia.org/wiki/Relative_strength_index
Carol OSLER
http://www.agefi.fr/articles/imprimer.aspx?id=1066792&fil_info=0