61
Mémoire de Master 2 Marchés Financiers 2012 -2013 Analyse Fondamentale et Analyse Technique « L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ? » Da Rocha Christophe (5MFI2) et Vaillant Rémi (5MFI2) Maître du mémoire : Bertrand Athouel Mots clés: analyse fondamentale, analyse technique, actions cotées en Bourse, tendances de marché.

Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

Embed Size (px)

DESCRIPTION

 

Citation preview

Page 1: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

Mémoire de Master 2 Marchés Financiers

2012 -2013

Analyse Fondamentale et Analyse Technique

« L’analyse fondamentale et l’analyse technique peuvent-elles s’associer

pour prédire une tendance sur les marchés actions ? »

Da Rocha Christophe (5MFI2) et Vaillant Rémi (5MFI2)

Maître du mémoire : Bertrand Athouel

Mots clés: analyse fondamentale, analyse technique, actions cotées en Bourse,

tendances de marché.

Page 2: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

2

Page 3: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

3

SOMMAIRE

Introduction………………………………………………………………… 4

I - L’Apport de l’analyse fondamentale…………………………………. 5

I.1 – L’approche des Crises financières et économiques…………….. 6

I.2 – Les modèles d’évaluation………………………………………….. 21

II – L’Apport de l’analyse technique…………………………………….. 31

II.1 – L’analyse comportementale : les biais psychologiques………... 32

II.2 – Les forces et faiblesses de l’analyse technique dans la

détermination des tendances…………………………………………….

48

Conclusion………………………………………………………………….. 58

Page 4: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

4

INTRODUCTION

Nul doute que toute personne intervenant sur les marchés actions a au moins une fois

voulu posséder le don de voir l’avenir. Qui n’a jamais voulu savoir avant tout le monde ce que

le cours de telle ou telle action cotée en Bourse allait être demain ? Avec ce don, les

possibilités de réussites financières semblent sans limites. Si cette capacité de prédire le cours

futur d’une action cotée en Bourse existait, elle serait convoitée au plus haut point.

Cependant, et jusqu’à preuve du contraire, une telle capacité n’existe pas et chaque

intervenant sur le marché doit y aller de son analyse.

De célèbres investisseurs ont fait fortune sur les marchés actions, et quelques noms, tel

que Warren Buffet, font légendes. Peut-être ont-ils trouvé la clé pour deviner l’évolution

future des cours? Cela semble surréaliste, surtout lorsqu’on le souvient des grandes pertes

financières qui leurs ont été reconnues. Ces investisseurs, aussi couronnés de succès soient-ils,

reposent comme chacun sur l’analyse qu’ils font du marché.

Les marchés financiers demeurent des lieux d'échanges ou les acteurs principaux sont

des êtres humains, avec leur compréhension du monde qui les entoure, leurs connaissances,

leurs croyances, leurs humeurs. Les marchés financiers sont, à l'instar de la nature humaine,

d'une complexité telle qu'il est impossible de les modéliser et d'en créer une équation parfaite,

capable de les expliquer et donc de les prédire.

Deux grandes écoles d’analyse se confrontent pour prédire les tendances boursières.

D’un côté l’analyse fondamentale qui base ses résultats sur l’étude d’éléments économiques et

d’autre part l’analyse technique qui base ses résultats sur l’étude de graphiques de cours. Ces

deux écoles ont toujours été confrontées pour savoir laquelle des deux était plus viable, plus

efficace. Aussi, il est intéressant de se questionner différemment. Ce mémoire va ainsi tenter

de répondre à la question : L’analyse fondamentale et l’analyse techniques peuvent-elles

s’associer pour prédire une tendance sur les marchés actions ?

Dans un premier temps l’approche de l’analyse fondamentale mettra en avant la

logique et les éléments lui permettant de définir une tendance, ainsi que les limites de son

approche. Dans un deuxième temps, l’approche prise par l’analyse technique viendra

confronter et combler l’analyse fondamentale dans la prédiction de tendance.

Page 5: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

5

I - L’APPORT DE L’ANALYSE FONDAMENTALE

L’analyse fondamentale a pour mission principale de valoriser un titre financier

représentatif d’une société. Son but est de mettre un prix sur une action, un prix qu’elle estime

être représentative du titre.

L’analyse fondamentale a une approche économique de l’entreprise. Elle situe la

société évaluée dans un contexte général: l’économie. Dans ce cadre, l’entreprise va interagir

avec différents acteurs, tels que ses clients, ses fournisseurs ou encore ses concurrents, qui

vont de par leurs actions inciter voir obliger l’entreprise à agir ou ne pas agir. Elle va

également être soumise à des influences plus ou moins directes en provenance d’entité

distinctes, tel que principalement le gouvernement ou encore la banque centrale qui vont, de

par leurs politiques et décisions, influencer le contexte économique dans lequel l’entreprise

évolue et ainsi bien souvent l’obliger à agir en conséquence.

Toutes ces influences, retranscrites de façon différentes à l’économie, forment un

cadre dans lequel l’entreprise va évoluer. Cette évolution va être liée à des changements dans

ses achats, ses ventes, sa structure, son organisation, son développement, etc. De façon

générale, son activité va être impactée par tous les changements de l’économie dans laquelle

elle se trouve. Par extension, ses changements vont impacter sa valeur et donc le prix que les

investisseurs sont prêts à lui accorder. C’est là que l’analyse fondamentale prend tout son

sens, en ce qu’elle va permettre d’étudier toutes ces évolutions, tant passées que futures pour

déterminer si une société va s’apprécier, et prendre de la valeur ou au contraire se déprécier et

perdre de la valeur. L’idée sous-jacente est alors d’indiquer si le prix d’une entreprise va

monter et s’inscrire dans une tendance haussière, ou baisser et s’inscrire dans une tendance

baissière, ou encore rester dans une constance et s’inscrire dans une tendance neutre.

Afin d’arriver à une conclusion quant à la tendance dans laquelle va s’inscrire le prix

d’une action, l’analyse fondamentale a développé un certain nombre de modèle permettant

d’indiquer avec un niveau de certitude plus ou moins élevé, si une action est sous-évaluée,

surévaluée ou encore relativement bien évaluée. La construction de ces modèles s’appuie sur

des hypothèses économiques issues de différentes réflexions économiques qui ont marqué

l’approche que l’on a de l’économie depuis notamment ce dernier siècle.

Pour étudier l’approche prise par l’analyse fondamentale, une réflexion sur les

différentes écoles économiques est nécessaire pour mettre en avant les éléments utiles,

indispensables à cette dernière. Une fois les réflexions économiques étayées et discutées, elles

serviront de base à l’étude des principaux modèles utilisés par l’analyse financière qui font

Page 6: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

6

alors lien entre la valeur réelle de l’entreprise et sa valeur échangée sur le marché. Mais avant

tout cela, il est intéressant d’étudier les crises financières et économiques qui ont marqué

l’histoire de l’homme, car elles ont été à la base des réflexions économiques qui permettent

aujourd’hui à l’analyse fondamentale d’être une activité motrice de la finance.

I - 1 L’approche des Crises financières et économiques

Les Crises financières ayant eu lieu depuis le début du 20e siècle ont marqué

l’économie et l’esprit collectif des hommes. Chaque Crise vécue a apporté son lot

d’enseignements, que ce soit la Crise de 1929 qui plongea les Etats-Unis dans la Grande

Dépression, le Krach d’octobre 1987 qui résulta dans la baisse spectaculaire de l’indice

américain Dow-Jones de 22,6% en l’espace d’une journée ou encore la Crise de 2007, pour

laquelle la reprise économique peine encore à se lancer. Les catastrophes financières font

avancer la célèbre proposition voulant que si, d’une crise à l’autre, les conditions

déterminantes sont les mêmes, ou similaires, alors quelques-unes au moins des conséquences

seront les mêmes, ou similaires. Sur cette idée, l’étude des Crises financières met en évidence

des phénomènes récurrents ou du moins des éléments qui tendent à se répéter.

Des ressemblances mineures, voir triviales, apparaissent entre les Crises. Comme il a

pu être remarqué, les Crises ont principalement lieu en automne; l’arrivée de l’hiver a peut-

être un effet psychologique sur l’humeur des acteurs des milieux financiers. De même, le

lundi semble avoir été un jour particulièrement sombre; les spéculateurs et acteurs peu

expérimentés qui se trouvaient sur les marchés financiers, après avoir connu d’autres

préoccupations durant le week-end, ont surement laissé cours à leurs craintes et ont décidé de

jouer la sécurité en revendant. Cela a été le cas le lundi 21 octobre 1929, première des

journées d’avertissement qui ouvrit la voie au terrible mardi qui suivit, et de même pour le

lundi 19 octobre 1987, reconnu comme le deuxième jour le plus dévastateur des marchés

financiers, derrière le krach de la bourse islandaise de 2008.

Dans la lignée de ces phénomènes calendaires, plusieurs études ont mis en évidence

des effets périodiques récurrents sur les marchés financiers. Dans les années 1980, plusieurs

recherches ont rapporté par exemple que les gains réalisés en Janvier sur les marchés

financiers étaient significativement plus élevés comparés aux autres mois de l’année, avec en

plus, des gains anormaux rapportés dans les cinq premiers jours du premier mois de l’année.

Depuis les premières documentations dans les années 1980, ce pattern, connu sous le nom de

Page 7: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

7

January Effect (traductible en Effet Janvier) a été observé sur la plus part des marchés

actions à travers le monde. Cette anomalie, aussi qualifiée de Turn-of-the-year effect

(traductible en Effet changement d’année civile) contredit les hypothèses d’efficiences de

marchés car les gains en janvier ne sont attribuables à aucune nouvelle économique ou

information pertinente. Un certain nombre de raisons ont été suggéré pour expliquer ce

phénomène, la principale étant l’effet de taxation et plus particulièrement la vente réalisée en

fin d’année civile pour récupérer une perte sur taxe. Les investisseurs auraient tendance à

clore leurs positions en pertes latentes en décembre dans le but de réaliser une perte imputable

à leurs gains réalisés dans le courant de l’année. Cette hausse d’offre sur le marché tend à

faire baisser le cours des titres en fin d’années, qui sont ainsi rachetées en janvier à des prix

plus faibles. Cette demande en début d’année dirige ainsi les prix à la hausse et donc la valeur

des portefeuilles. Un certain nombre d’autres effets calendaires, ont été trouvés, mais ces

anomalies connues du monde financier se font arbitrer, ayant pour conséquence de leur faire

perdre leur effet.

Aussi, ces éléments anecdotiques ne sauraient expliquer les causes de telles tragédies

financières qui ont marqué, et marquent encore les marchés actions. D’autres similitudes entre

les crises financières autrement plus importantes sont à souligner, l’histoire financière étant

soumise aux mêmes conditions déterminantes.

Une Euphorie générale alliée à une spéculation accrue

La première condition déterminante à une crise financière, mise en évidence en amont

des crises, est ce qui a été qualifié par John Kennet Galbraith de « droit acquis » à l’euphorie

dans son ouvrage La crise économique de 1929 – Anatomie d’une catastrophe financière (titre

original : The Great Crash). Les cours des actions cotées sont montés, au cours des années

précédant les crashs boursiers, sans limite apparente.

Dans les années 20, les Etats-Unis connaissent des années de croissance industrielle

soutenue que rien ne semble pouvoir arrêter. L’économie tourne à régime soutenu, les emplois

sont présents et la consommation ne faiblit pas. Bien que la pauvreté existait, la richesse

s’échangeait, permettant aux classes aisées de l’être toujours plus, et aux classes moyennes de

disposer de revenus en excès. Cette croissance des rémunérations s’est tout d’abord dirigée

vers la consommation, continuant à rendre toujours plus profitables des entreprises dont les

Page 8: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

8

perspectives d’évolutions semblaient ne pas avoir de limite. Ayant atteint un niveau de vie

élevé, relativement aux revenus gagnés, les citoyens se sont naturellement tournés vers des

activités pour faire fructifier leur nouvelle épargne, à la recherche de nouvelles richesses : la

Bourse. L’excès de richesse devait être mis à profit, et les marchés financiers se sont trouvés

être une solution intéressante. La Bourse, que ce soit dans les années 20 ou dans toute phase

de croissance de l’économie, est un lieu qui permet à tout citoyen de facilement placer son

argent dans des entreprises, dans des projets dont les rendements espérés sont élevés. La

facilité à acheter et revendre des parts de sociétés a rendu cet endroit populaire et très prisé.

La fin des années 20, avant l’éclatement de la Crise qui donna suite à la Grande Dépression,

n’a pas dérogé à la règle : les volumes échangés sur les marchés financiers n’ont cessés de

croître. Pendant les périodes d’euphorie financière, les marchés boursiers sont montés sans

limites apparentes. Cette euphorie financière prend en force lorsque, malgré des interruptions

temporaires, les marchés boursiers continuent, comme inexorablement, de grimper. Dans tous

les cas, les influences sous-jacentes qui affectent les cours boursiers, que ce soient les

anticipations de rendement ou la croissance économique, ont fait place à la croyance selon

laquelle l’augmentation des valeurs ne cesseront jamais de monter. A noter que cette croyance

collective se soucie peu de la réalité, l’achat d’un titre financier n’a comme intérêt que le

profit que l’on peut en espérer sur sa revente. Les aspects de propriété, qui caractérisent les

actions financières, n’existent plus dans ces moments, face à une hausse prochaine et sûre;

sûre dans l’inconscient collectif qui veut que les prix ne s’arrêteront pas de grimper. Le

revenu des biens ou le plaisir qu’ils peuvent procurer à leur propriétaire n’ont plus grande

importance, car ils n’équivalent plus la valeur financière que le gain réalisable sur l’opération

d’achat-revente peut concrétiser. L’inconscient collectif veut que, même si de petites

fluctuations négatives apparaissent dans les cours des actions, les jours prochains seront

positifs, les valeurs boursières continueront de monter. Ce droit à l’euphorie collective pousse

tout citoyen à croire en des lendemains toujours meilleurs, à croire que leur richesse ne peut

que continuer de s’apprécier. Dans le cas des années 1920, l’euphorie ne semblait pas pouvoir

s’arrêter car il n’y avait eu jusqu’alors aucune crise marquante comme on pouvait l’avoir en

mémoire à la fin des années 2007. Cette croyance en des gains futurs sans limites est

surévaluée par la vision que l’on peut avoir de l’économie : le titre des actions grimpe, donc

cela signifie, pour les acteurs financiers, que les entreprises sous-jacentes voient leur

rentabilité croître. Donc pourquoi ne pas continuer à y croire ?

Page 9: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

9

Cette perte de connexion avec la réalité économique, qui est spécifique à toute

euphorie financière se caractérise par une bulle. Dans ces bulles financières, les prix des biens

échangés atteignent des niveaux élevés déconnectés de la réalité économique. L’exemple le

plus marquant de bulle spéculative revient à la Tulipomanie, la tristement célèbre Crise de la

Tulipe survenue dans les années 1630. Au 16e et 17

e siècle, voit se développer un engouement

particulier pour l’horticulture en Europe du Nord et la tulipe devient un emblème de luxe, de

rang social élevé. Leur convoitise et leur demande grandissante pousse les commerçants à

mettre en place des contrats à terme sur ces fleurs. Ces contrats à terme sont devenus des

objets de négociations tellement spéculés que le cours de l’oignon de tulipe voit sa valeur

exploser. Même si les données historiques de l’époque sont très pauvres et si les différentes

théories utilisées pour évaluer le prix des tulipes sont aujourd’hui discutées, il a été établi par

Charles Mackay (écrivain et journaliste britannique à tendance économique né le 27 mars 181

à Perth en Ecosse et décédé le 24 décembre 1889 à Londres), pour ne citer que lui, qu’un

bulbe de tulipe s’échangeait au plus fort de la tulipomanie contre 5 hectares de terre. La

disproportion entre valeur spéculative et valeur réelle est frappante : il est économiquement

illogique qu’un produit de la terre soit évalué autant de fois au-dessus de la valeur du terrain

qui lui est nécessaire pour être produit. A chaque fois, cette déconnexion frappante de la

réalité, qui a caractérisé chaque crise financière connue, a pourtant été dénoncé par quelques

personnes, suffisamment alertes et distantes de la recherche de richesse facile. Ces parias de

l’euphorie générale des marchés n’ont pourtant pas eu de poids face à une foule pacquée

autour d’une croyance aussi forte.

L’euphorie générale des marchés s’est trouvée, avant toute crise, un camarade de jeu : la

spéculation. Cette alliée, incitée et facilitée par les outils mis à sa disposition, notamment les

opérations sur marge, a joué un rôle prépondérant dans le décrochement des valeurs

financières lors des crises.

La crise des subprimes a encore récemment montré l’engouement démentiel des

acteurs financiers pour la spéculation et le gain excessif. Les années 2002 à 2007 ont été pour

les Etats-Unis une période de croissance soutenue comme l’atteste le S&P 500 passé de

776,76 points le 10 septembre 2002 à 1.565,15 5ans plus tard. A la fin des années 2006,

Henry Paulson, ancien CEO (Chief Executive Officer = Directeur Général) de Goldman

Sachs et à la tête du fonds Paulson & Co s’est mis d’accord avec Lloyd Craig Blankfein,

actuel CEO de la Banque d’investissement, pour former un fond spéculatif basé sur les prêts

hypothécaires américains. Début 2007, Goldman Sachs est rentré en contact avec ACA

Page 10: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

10

management pour la sélection des RMDS (Residential Mortgage-Backed Securities = prêt

hypothécaires ; prêts garantis par l’actif collatéral à savoir le bien immobilier acheté) pacqués

ensemble et organisés en fonction de leur notation de crédit. La particularité de ce projet,

nommé Abacus 07-AC1, a été la construction contre mesure faite par le duo Blankfein et

Paulson : la sélection des RMDS a été réalisé dans l’optique de faire s’écrouler le produit.

Une fois le produit construit, la vente du produit a été réalisée à des investisseurs non habitués

à ce type de produit complexe. Les acheteurs tels que la banque allemande IKB et le danois

ABN AMRO ont décidé de rentrer dans un monde spéculatif pour lequel ils ne détenaient pas

le savoir-faire nécessaire. Dans cette phase économique roulant à bonne vitesse, ces

investisseurs novices dans sur ce type de contrat ont cherché de nouvelles opportunités pour

réalise plus de profits. Le tableau final avant l’explosion du fond Abacus était le suivant : d’un

côté Henry Paulson tenant une position short sur le produit, croyant à l’effondrement du

produit qu’il a construit, pour une spéculation à 1 milliard de dollars d’enjeux, et d’un autre

côté des investisseurs détenant des positions long sur des produits dont ils ne mesuraient pas

le risque, pour un espoir de gain élevé. En janvier 2008, 99% des actifs référencés dans le

portefeuille Abacus ont fait défaut, créant le cataclysme faisant référence à la Crise des

subprimes. Cet engouement pour la spéculation qui atteint tous les acteurs du monde

financier, professionnels comme particuliers, est un effet apparu exacerbé avant l’éclatement

des autres crises financières. L’augmentation des valeurs, soutenue par une croyance

commune que les marchés ne s’arrêteront pas de monter, incite les individus à continuer leur

spéculation.

Un des éléments caractéristique de la spéculation sur les marchés actions est

l’utilisation des achats et ventes à découvert sur marges. Les acteurs financiers peuvent

acheter les actifs financiers qu’ils désirent en empruntant une partie du prix de l’actif à leur

broker. Acheter sur marge peut grandement augmenter le potentiel de gains ou de pertes pour

un montant d’actions car l’acheteur bénéficie d’un plus grand pouvoir d’achat. En comparant

l’achat d’un titre à 100€ en argent plein avec le même achat réalisé à 50% sur marge, l’effet

de levier sous-jacent au système d’achat sur prêt est mis en valeur : Si, ultérieurement, le titre

vaut 110€, l’investisseur se retrouve à la fin avec 110€ pour 100€ investit soit 10% de retour

sur investissement, calculé comme 10€ (110€ - 100€) de gains rapportés au 100€ investis.

Avec un achat sur marge à 50%, le l’investisseur se retrouve au moment de la revente du titre

avec 110€ en sa possession. Après remboursement du prêt de 50€, il lui reste 60€ pour un

Page 11: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

11

investissement initial de 50€, soit 20% de retour sur investissement, calculé comme 10€ (60€

- 50€) rapportés aux 50€ investis.

L’aspect d’euphorie des marchés est difficilement modélisable : comment attraper ce

sentiment collectif dans une mesure économique quantifiable, comparable ? Une approche

pourrait être similaire à celle de l’indicateur VIX. L’idée pourrait ainsi être de mesurer les

attentes des marchés par l’évolution de leur volatilité. L’aspect spéculatif semble tout autant

difficilement modélisable bien qu’une approche particulière puisse aider en ce sens : Le

volume des prêts des courtiers, garantis par des valeurs achetées sur marge, et plus

particulièrement leur évolution au travers des mois permettrait de mesurer la masse de

spéculation sur les marchés. Entre 1920 et 1928, l’augmentation des volumes d’argent

empruntés pour acheter sur marge des titres cotés sur NYSE parle de lui-même. En 1920, les

montants de prêts du marché court terme variait entre 1 milliard et 1 milliard et demi de

dollars. En 1926 ce chiffre est monté à 2 milliards et demi de dollars au courant de l’été. Un

an plus tard l’augmentation fut encore plus marquante et fit monter les prêts à 3 milliards et

demi de dollars. Fin 1928, le New-York Stock Exchange Year-Book 1928-1929 rapportait le

chiffre de 5 722 258 724 dollars.

Une économie en pleine expansion et des réponses gouvernementales à effet de levier

Une autre condition déterminante à un éclatement boursier, comme les crises

financières du passé l’enseignent, est un environnement économique en pleine expansion. Les

montées des valeurs boursières enregistrées en amont des catastrophes boursières tiennent

d’une grande part à leur économie macro sous-jacente.

Les années 20 furent pour les Etats-Unis une période florissante. La production et

l’emploi étaient élevés et continuaient à s’accroître, dans un système économique où les

capitaux de la richesse s’échangeaient à un rythme soutenu. La stabilité des salaires s’alignait

à la stabilité des prix. Entre 1925 et 1929, le nombre d’établissements industriels était passé

de 183 900 à 206 700 et la valeur de leur production industrielle s’était porté de 60,8 milliards

de dollar à 68 milliards (source : US Department of Commerce, Bureau of the Census,

Statistical Abstract of the United States), soit 12% d’évolution en l’espace de 4 années. C’est

dans cet environnement économique bouillonnant de croissance que la crise de 1928 a éclaté.

Cela a été le cas pour toutes les crises économiques. Aucune crise n’est apparue au lendemain

Page 12: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

12

d’une relance économique, Elles ont toutes éclatées après une bulle spéculative inscrite dans

une phase économique où l’économie tournait à plein régime. L’étude des cycles

économiques apporte alors une deuxième source d’explication au contexte économique dans

lequel l’évaluation d’une entreprise s’inscrit. Les cycles économiques ont été définis pour la

première fois en 1946 par Arthur Burns et Wesley Mitchell, dans leur ouvrage Measuring

Business Cycles. Leur vision de l’économie défini les cycles économiques comme un type de

fluctuation trouvé dans l’activité économique total des nations qui organisent leur travail

principalement en entreprises commerciales : un cycle consiste en d’expansions se produisant

approximativement au même moment dans plusieurs activités économiques, suivi par des

récessions, contractions similaires et relances qui fusionnent dans la phase d’expansion du

cycle suivant ; cette séquence d’évènements est récurrente mais non périodique (traduit de

l’anglais). Un cycle économique se décompose ainsi en quatre phases : creux, expansion, pic

et contraction, chacun apparaissant à la suite l’un de l’autre. Quand l’expansion d’une

économie est bien établie, un boom souvent apparait. Ce boom est toujours une phase

d’expansion caractérisée par une croissante économique qui teste les limites de l’économie.

L’analyse fondamentale prend en considération le cycle dans lequel se situe le secteur

évalué. Des cycles économiques ont été reconnus très tôt avec la théorie économique et des

efforts considérables ont été entrepris pour les différencier, les comprendre, les expliquer.

Cette démarche a énormément servi à l’analyse fondamentale qui peut ainsi positionner un

secteur d’activité vis-à-vis d’un cycle de croissance, de décroissance, que ce soit avec un

rythme plus ou moins soutenu. Jusqu’aux années 30, la vision générale donnait un caractère

naturel à l’économie et présentait les récessions comme des phases temporaires. Cependant,

la sévérité de la Grande Dépression des années 30 a créé une crise dans la théorie économique

qui a nécessité une approche plus pragmatique. Après la Grande Dépression qui commença en

1929, le débat entre différentes écoles de pensées économiques a stimulé d’importantes

innovations dans la manière où les cycles économiques sont décrits et expliqués.

Similairement, après la récession déclenchée par les chocs du pétrole en 1973 et 1979, le

vieux paradigme a été mis de côté et de nouveaux développements en économie ont mené à

une compréhension améliorée de la dynamique économique.

L’école Néoclassique, repose sur le concept d’équilibre général des marchés : tous les

marchés tendent à atteindre un équilibre du fait, premièrement, d’une main invisible, comme

la nomme son auteur Adam Smith (philosophe et économiste écossais né le 5 juin 1790 à

Kirkcaldy en Ecosse et décédé le 17 Juillet 1790 à Edimbourg), et deuxièmement, par l’idée

Page 13: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

13

qu’un prix sera trouvé pour chaque bien auquel la demande sera égale à l’offre. Toutes les

ressources sont utilisées avec efficience, basé sur le principe que le coût marginal égale le

revenu marginal des producteurs et que l’utilisation de la main d’œuvre et du capital sont

également utilisés avec efficience, sans non-emploi volontaire. A noter que le capital se

comprend comme le capital financier, correspondant notamment à l’investissement, mais

aussi dans sa forme étendue au capital physique, à savoir les machines nécessaires à la

production. Dans la pratique, l’approche néoclassique veut que cette main invisible réalloue le

capital et la main d’œuvre pour produire ce que les consommateurs désirent consommer, et

n’autorise pas de fluctuations ancrées dans l’économie générale et son activité. Si un choc

modifie la demande générale ou l’offre générale, l’économie réajustera rapidement pour

atteindre son équilibre, que ce soit par la variation des taux d’intérêts ou des salaires. Les

économistes néoclassiques reposent sur la loi de Say qui stipule que tout ce qui est produit

sera vendu car l’offre crée sa propre demande. Jean-Baptiste Say (économiste français et

industriel du secteur du coton né le 5 Janvier 1767 à Lyon et décédé à Paris le 14 Novembre

1832) expliquait que si un bien est produit, le capital et la main d’œuvre utilisés pour le

produire devra être compensé. Cette compensation, sous forme d’intérêts pour le capital

financier et de salaires pour la main d’œuvre crée du pouvoir d’achat dans le sens où le

travailleur reçoit une somme monétaire qu’il peut utiliser pour consommer les biens et

services dont il a besoin. D’après l’école néoclassique, une crise massive est impossible de

par le lissage continu et le retour à un équilibre économique constant. Cependant, cela arriva

dans les années 30 avec la Grande Dépression. La validité de l’approche semble alors

compromise, mais cela n’enlève pas tout à la valeur ajoutée que cette notion de main invisible

et de retour à l’équilibre qui aujourd’hui encore ont leurs fondements.

La Crise de 1929 a introduit une cassure dans la théorie économique car une crise de

cette ampleur, jusque-là pas vécu, a touché de nombreux secteurs en même temps et d’une

manière hautement dramatique. Parce que l’approche néoclassique a dénié la possibilité d’une

dépression prolongée, elle ne saurait être utilisée pour expliquer comment combattre une telle

dépression. Le principal mécanisme d’ajustement de l’école néoclassique, à savoir des

réductions dans les salaires, était difficile à accomplir et remis en question plus tard par

l’école Keynésienne.

L’école de pensée autrichienne, incluant Friedrich Hayek (Friedrich August von

Hayek, philosophe et économiste né le 8 mai 1899 à Vienne et décédé le 23 mars 1992 à

Fribourg-en-Brisgau, en Allemagne) et Ludwig von Mises (économiste né le 29 Septembre

Page 14: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

14

1881 à Lember en Autriche-Hongrie et décédé le 10 Octobre 1973 à New-York) partage

quelques points de vues avec l’école de pensée néoclassique, mais se concentre

principalement sur deux sujets que sont l’argent et le gouvernement. L’argent n’était pas une

nécessité dans le modèle néoclassique car l’échange de biens et services pouvait avoir lieu

dans la forme de troc et pouvait toujours permettre d’atteindre un équilibre de valeurs.

L’argent n’était alors vu que comme un moyen de simplification des échanges. De façon

similaire, le rôle du gouvernement dans le modèle néoclassique était relativement limité car

l’économie était vu comme capable de se prendre en charge elle-même et le gouvernement

n’avait qu’un rôle de maintien de la loi et de sécurisation des frontières. Von Hayek

argumentait que les fluctuations sont causées par les actions des gouvernements qui cherchent

à accroitre le Produit Intérieur Brut et l’emploi en adoptant des politiques monétaires

expansionnistes. D’après cette approche, les gouvernements diminuent les taux d’intérêts des

marchés en dessous de leur valeur naturelle, ou valeur vers laquelle la main invisible les

amènerait d’après Adam Smith, tendant ainsi à inciter les entreprises à investir toujours plus.

Une fois que les entreprises réalisent qu’elles ont accumulé trop de machines et de structure,

elles vont logiquement et soudainement arrêter d’investir, ce qui aura pour conséquence de

réduire la demande générale et ainsi créer une crise dans l’économie. Pour retourner à un

nouvel équilibre, les prix et les salaires doivent diminuer.

Le résultat d’une telle manipulation des taux d’intérêts explique les fluctuations

exhibées par l’économie qui n’auraient pas eu lieu autrement. L’école australienne préconise

alors un interventionnisme limité du gouvernement dans l’économie. Cette pensée met en

avant l’importance des décisions prises par le gouvernement d’un pays et l’importance de les

incorporer dans l’étude d’une analyse financière. Les implications plus ou moins directes des

décisions gouvernementales sont ainsi des éléments incontournables qui expliquent une part

de la valeur donnée à un titre financier. L’école autrichienne va encore plus loin avec sa

théorie de l’origine des cycles économiques : les interventions malavisées des gouvernements.

L’école néoclassique n’a pas de théorie concernant les cycles économiques et notamment leur

origine. Cependant, Joseph Schumpeter (économiste autrichien né le 8 Février 1883 à Triesch

en Autriche-Hongrie et décédé le 8 Janvier 1950 à Salisbury au Connecticut), membre de ce

courant de pensée, a formulé sa théorie sur la destruction créatrice et l’innovation qui montre

que des cycles à l’intérieur des secteurs économiques résultent de progrès technologiques. Sa

théorie de l’innovation explique des cycles limités aux secteurs : quand un inventeur crée un

nouveau produit ou un moyen nouveau de mieux produire un bien ou service déjà existant,

Page 15: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

15

l’entrepreneur à l’origine de cette découverte aura tendance à avoir de plus gros profits et

tendrait à sortir les producteurs actuels du marché. Cette théorie est notifiable aujourd’hui

encore avec les facteurs clés de succès nécessaires aux entreprises pour rester sur leur

secteur : toutes les innovations technologiques peuvent être des exemples : avant de devenir

un facteur clé de succès, autrement dit un élément indispensable à prendre en compte pour

intégrer et rester sur un marché, une découverte technologique était un élément de distinction

qui a permis à son entrepreneur inventeur de se différencier de ses concurrents et ainsi

récupérer des parts de marché. Une fois le succès perçu par les concurrents, ces derniers

doivent s’adapter et proposer un élément nouveau au moins équivalent à cette découverte pour

récupérer leurs parts de marché. On note ainsi un des éléments nécessaires au maintien d’une

entreprise sur son secteur : ses dépenses en Recherches et Développements, nécessaires pour

se différencier de ses concurrents. Par cette théorie de l’innovation, Joseph Schumpeter a mis

en avant l’idée que les innovations elles-mêmes peuvent générer des crises qui affectent un

secteur.

Deux autres écoles de pensées économiques, l’école Keynésienne et l’école

Monétariste, ont eu une influence plus importante dans leur analyse des liens entre les cycles

économiques et l’influence des gouvernements en ce qu’elles leur reconnaissent un rôle

interventionniste important. John Maynard Keynes (économiste britannique né le 5 Juin 1883

à Cambridge en Angleterre et décédé le 21 Avril 1946 à Firle dans le Sussex, au Royaume-

Uni) contestait les approches néoclassiques et australiennes. Il observa qu’une réduction

généralisée des prix et des salaires, nécessaire pour ramener les marchés à un équilibre durant

une récession, est dur à réaliser. Par exemple, un travailleur ne veut pas voir son salaire

diminuer, ce qui rend l’action de réduire les salaires anti-démagogue et donc contraire à l’un

des intérêts principaux des politiques, à savoir leur réélection. Dans l’hypothèse où la main

d’œuvre serait prête à accepter une baisse de salaire, cette situation pourrait exacerber la crise

dans laquelle l’économie se trouve en réduisant la demande générale plutôt que de la

résoudre. (Cet aspect négatif a été noté dernièrement, avec les prévisions du FMI dans la

relance économique de la Grèce.) La diminution de salaire implique une diminution des

dépenses et donc de la demande générale. Cette réponse causerait une contraction encore plus

importante dans la demande. De plus, Keynes pensait que d’autres circonstances pour lesquels

une baisse des taux d’intérêts pourrait ne pas avoir comme conséquence une relance de la

croissance : si la confiance dans les affaires et les attentes futures sont négatives, les

entreprises peineront à investir car ne verront pas l’intérêt à dépenser de l’argent qui ne saurait

Page 16: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

16

fructifier dans le futur. Tout en acceptant et validant quelque part l’idée d’un retour à

l’équilibre sur le long terme, comme proposé par les écoles néoclassiques et autrichiennes,

Keynes préconise l’intervention de l’Etat sous forme d’une politique fiscale soutenue. D’après

son approche, l’Etat devrait intervenir lorsque les Crises ont lieu dans le but de conserver

l’utilisation efficiente du capital et de la main d’œuvre. L’Etat devrait être un Etat providence,

dans le sens où il n’interviendrait dans l’économie uniquement en cas de Crise, en cas de

dernier recours dans le but de limiter les dommages des récessions majeures. Cette pensée

économique, bien que présente aujourd’hui dans les principaux pays contemporains, a tout de

même ses limites qui doivent être prises en considération lorsqu’il va être question d’analyser

un marché. Premièrement, une hausse des dépenses fiscales implique une hausse de la dette

publique qu’il va falloir in fine rembourser. Il y a le danger pour les gouvernements de finir

asphyxiés par le remboursement de leur dette. Cette problématique est notamment d’actualité

avec les taux d’endettements des pays européens et des Etats-Unis; le défaut de la Grèce à

rembourser l’intégralité de sa dette a été un exemple phare des limites de cette politique

fiscale. Deuxièmement, les cycles économiques appelés par Keynes visent le court terme. Sur

le long terme, l’économie a de forte chance de revenir avec un effet de surchauffe sur

l’économie : une croissance économique rapide dont le rythme n’est pas soutenable sur le

long terme engendre diverses conséquences dont notamment l’inflation. Cette situation

s’explique aussi par le décalage entre le moment d’intervention de la politique fiscale

expansionniste et le résultat espéré qui intervient à un moment où l’économie a changé d’état.

De façon générale, les politiques fiscales prennent du temps pour être implémentées, ce qui

engendre un décalage entre leur effet souhaité et les effets réellement réalisés car ils ont lieu

alors que l’économie est dans un état différent.

Ces critiques sur la pensée Keynésienne ont été fortement discutées et contestées par

l’école de pensée Monétariste, sous l’égide de Milton Friedman (économiste américain né à

New-York le 31 Juillet 1912 et décédé le 16 Novembre 2006 à San Francisco), considéré

comme l’un des économistes les plus influents du 20e siècle. Le modèle Keynésien est tout

d’abord contesté car il ne prend pas en considération l’importance de la monnaie et plus

particulièrement de son offre. Si la monnaie croit trop rapidement, l’économie tendra vers un

boom insoutenable sur du long-terme ; si la monnaie croit trop lentement, l’économie tendra

vers la récession. La vision à court terme des Keynésiens est également mise à mal en ce

qu’elle ne considère pas les coûts des interventions du gouvernement sur le long terme.

Comme évoqué précédemment, une dette croissante et des intérêts trop élevés tendent à

Page 17: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

17

l’asphyxie de l’Etat qui se répercutera sur les impôts et taxes prélevées, diminuant la

consommation générale et faisant, sur du long terme, rentrer l’économie dans une phase de

récession. Dernièrement, le timing des réponses du gouvernement est incertain et les effets

stimulant d’une politique fiscale expansionniste peuvent avoir lieu une fois la crise terminée

et ainsi causer plus de dégâts qu’en soigner.

Ainsi, d’après l’école Monétariste, les cycles économiques s’expliquent par des chocs

externes à l’économie et l’interventionnisme des gouvernements. D’après sa vision, il est

préférable de laisser l’offre et la demande trouver leur équilibre plutôt que de risquer de

causer de plus amples fluctuations économiques. L’Etat ou les banques centrales doivent être

présents pour conserver un taux de croissance de la monnaie modéré.

De récentes écoles de pensées économiques ont continué à apporter leur pierre à

l’édifice de la compréhension des cycles économiques en attaquant un nouvel angle

d’approche. L’école néoclassique, sous l’égide de Robert Lucas (économiste américain né le

15 septembre 1937 à Yakima dans l’Etat américain de Washington), a discuté les fondements

des modèles utilisés pour expliquer les cycles économiques apportant ainsi un aspect critique

sur les raisons qui tendent à influencer les cycles économiques et leurs effets. Lucas approuve

la vision de Friedman en ajoutant que les modèles utilisés devraient essayer de représenter les

actions des agents économiques avec une fonction d’utilité et des contraintes budgétaires, à

l’image des modèles utilisés en microéconomie. Cette approche de la macroéconomie cherche

des conclusions macroéconomiques de la maximisation de l’utilité des individus avec comme

hypothèse sous-jacente que les entreprises tendent à maximiser leur profit. Les modèles

néoclassiques sont dynamiques dans le sens où ils décrivent les fluctuations à travers plusieurs

périodes et présentent un équilibre général dans le sens où ils cherchent à déterminer tous les

prix d’équilibre plutôt qu’un seul prix. Cette approche globale des choses cherche à

comprendre l’évolution économique dans son ensemble plutôt que comme des situations au

cas par cas. Pour exemple, les modèles présentés par Edward Prescott et Finn Kydland ont un

agent économique qui fait face à des chocs externes à l’économie, tel qu’à la suite de

changements technologiques ou de changements de goûts des consommateurs, et par

conséquence optimise son choix pour atteindre l’utilité maximale. Si tous les agents agissent

de façon similaire, les marchés vont graduellement tendre vers un équilibre.

Les économistes Néo classiques, partent de l’idée que certaines recommandations

faites dans le passé était plutôt irrationnels et donc non cohérentes avec l’attitude des agents

Page 18: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

18

économiques. Par exemple, si tout le monde est conscient que dans le cadre d’une récession le

gouvernement baissera les taux d’intérêts pour relancer l’investissement des entreprises, alors

pourquoi ces entreprises investiraient en dehors des phases de récessions ? Si la majorité des

entreprises pensaient cela, elles arrêteraient d’investir, causant ainsi une récession qui n’aurait

pas eu lieu. Dans cette idée, le gouvernement et ses politiques « contre-cycles économiques »

pourraient causer une récession. Les premiers modèles néoclassiques, qui n’incluaient pas

d’argent et étaient alors qualifiés de modèle à cycles économiques réels, concluaient que les

phases d’expansion et de contractions représentent des opérations efficientes de l’économie en

réponse à des chocs externes. Dans cette vision non monétaire, les cycles ont des causes

réelles telles que des changements technologiques et supposent que les variables monétaires,

tel que l’inflation n’ont pas d’incidence sur le Produit Intérieur Brut d’une nation. Ces

modèles reposent sur l’efficience des marchés, prônant ainsi que le chômage ne peut être que

de courte durée : mis à part le chômage frictionnel, qui est la part de chômage attribuable au

fait que les individus se retrouvent sans emploi parce qu’ils changent d’emplois et se

retrouvent pendant une durée très courte sans rien, si les marchés sont efficients, une personne

sans emploi est alors une personne qui ne veut pas travailler. Si une personne est sans emploi,

dans le cadre de marchés efficients, elle a juste besoin de baisser ses attentes en terme de

salaire jusqu’à ce qu’elle trouve un employeur. Cette approche est logique car si les marchés

sont parfaitement flexibles, tous les marchés doivent trouver l’équilibre et le plein emploi.

Ainsi, une personne est sans emploi si elle demande un salaire trop élevé et a donc une

fonction d’utilité maximisée par le fait d’avoir des loisirs et moins de consommation.

Cependant, l’observation faite pendant les récessions est tout autre : le fait que beaucoup de

personnes cherchent du travail mais soient incapables d’en trouver malgré une chute de leur

rémunération souhaitée démontre l’inexactitude de l’approche.

Ces derniers modèles donnent une relative plus grande importance à la demande générale que

la plus part des autres théories. Par exemple, l’importance de l’offre est limitée dans la théorie

keynésienne, surement car Keynes était fortement affecté par et focalisé sur la Grande

Dépression qui était une crise de la demande. Les modèles à cycles économiques réels

montrent que les chocs liés à l’offre, tels que les avancées technologiques, peuvent augmenter

le Produit Intérieur Brut potentiel d’une nation. Cependant, toutes les entreprises, au sein d’un

pays, ne peuvent adopter la nouvelle technologie d’un seul coup et donc l’atteinte de ce

potentiel se fera par des ajustements temporels. L’effet inverse est également un élément qui

Page 19: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

19

sort de ces dernières théories : l’augmentation de prix d’une énergie fortement utilisée par une

nation va limiter l’offre et tendre à réduire le PIB potentiel.

L’inflation est souvent vue comme une des causes principales des cycles économiques

car lorsque les politiques monétaires finissent par être trop expansionnistes, l’économie croît à

un rythme non soutenable sur du long-terme, créant ainsi un gap inflationniste. Les

fournisseurs ne peuvent suivre la demande, les prix continuent à augmenter plus vite que la

normale : c’est l’inflation. En conséquence, la banque centrale devra souvent intervenir pour

limiter l’inflation en resserrant la politique monétaire, qui généralement se traduit par une

hausse des taux d’intérêts. Les taux augmentant, le coût de l’emprunt augmente et en cascade

la demande, plus précisément la part de consommation faite à crédit va ralentir. Cette réponse

va diminuer l’équilibre du PIB et peut résulter dans une récession. Dans la mesure où

l’inflation apparait être le déclencheur des choix réalisés par les banques centrales, c’est une

part importante et un apport considérable des cycles d’activités modernes. Aussi, il semble

crucial d’incorporer cette notion monétaire à la croissance économique pour évaluer

l’évolution d’une entreprise.

Cet aspect inflation est le sujet principal d’un autre groupe de modèles d’équilibre

général dynamique que sont les Néo Keynésiens, qui à l’instar de l’école Néoclassique tente

de placer la macroéconomie sur un pied d’égalité avec la microéconomie. Par contraste avec

l’école néoclassique, l’école néo keynésienne suppose un ajustement lent des prix et salaires.

Les modèles néo Keynésiens montrent que les marchés n’atteignent pas leur équilibre

immédiatement et de façon lisse, mais plutôt par de petites imperfections qui laissent les

marchés en constant déséquilibre. L’interventionnisme de l’Etat, comme préconisée par

Keynes dans les années 30 peut être utile pour éliminer le chômage et amener les marchés

vers un équilibre. L’un des meilleurs exemples de cette imperfection est que les travailleurs ne

veulent pas voir leur salaire diminuer pour aider le marché à atteindre un nouvel équilibre.

Une autre possibilité, mentionnée par différents économistes, est l’explication par le « coût du

menu » : il est couteux pour une entreprise de modifier ses prix en permanence pour rendre le

marché clair, tout comme il serait couteux pour un restaurateur d’imprimer de nouveaux

menus tous les jours en fonction de la mise à jour des prix.

Ces dernières années, un consensus concernant les cycles économiques a commencé à

se construire en macroéconomie. Il est surement trop tôt pour dire que les économistes

s’accordent sur toutes les causes et remèdes aux fluctuations économiques, mais un cadre

Page 20: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

20

général semble avoir émergé, qui englobe les approches néo classiques et néo Keynésiennes.

Le débat concernant les cycles économiques tend à être politisé, comme on peut le lire

aujourd’hui encore dans la presse, avec d’une part des gens contre l’interventionnisme de

l’Etat, qui le sont principalement car ils tendent vers des déficits budgétaires colossaux, et

d’autre part des personnes en faveur, qui sont principalement tournés vers l’allègement que le

gouvernement apporte aux larges chocs économiques. Dans le cadre de l’analyse financière,

les choix politiques ne devraient pas rentrer en considération, mais elle devrait plutôt prendre

en compte les politiques en vigueurs et leurs potentiels effets sur l’économie car elles

participent en grande part aux cycles économiques.

L’action d’un gouvernement est ainsi un élément à prendre en compte comme

encadrement de l’économie dans lequel une entreprise se situe. Sa valeur va ainsi être affectée

par les décisions prises par le gouvernement en place. De façon générale, les effets liés au

gouvernement sont des éléments incontournables qui doivent être pris en considération dans

l’évaluation d’une entreprise.

Une chose est certaine : l’économie n’est pas parfaitement modélisable car trop complexe,

trop enchevêtrée de décisions, d’effet, de conséquences. Il est donc compliqué de prévoir

l’avenir économique avec suffisamment de certitudes pour prédire sereinement une tendance

sur les marchés. Les crises financières et économiques ont mis en lumière des éléments qui

peuvent être résumées en trois points : une euphorie générale des marchés alliée à une

spéculation accrue, une économie en croissance soutenue et finalement des politiques

gouvernementales à effet de levier. Sur la base de ces éléments, il est possible de ressentir et

même de justifier par des données économiques qu’une crise est sur le point d’avoir lieu. Ces

éléments permettent d’établir un schéma caractéristique pour le retournement de marché dans

le cas d’une crise financière. Cependant, ces éléments ils ne se suffisent pas pour prédire une

tendance de marché de façon générale.

Néanmoins, ces éléments ont permis aux différentes écoles économiques de mettre en

avant des éléments caractérisant les fluctuations de l’économie, des éléments de

compréhension de l’évolution des marchés qui permet à l’analyse fondamentale de prévoir

des tendances. La notion primordiale mise en lumière et soutenue par toutes les écoles et que

les prix des biens et par extension les prix des titres financiers tendent à se rapprocher d’une

valeur réelle, modulo des effets économiques qui viennent rendre plus ou moins efficient le

transfert d’information inscrit dans les échanges entre agents économiques.

Page 21: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

21

I - 2 Les modèles d’évaluation

Avant de rentrer dans l’étude des modèles qui reprennent la logique tant

macroéconomique que microéconomique, il est important de regarder les barrières à

l’évaluation des actifs sur un marché. Ces barrières ont leur importance dans la logique de

l’analyse financière.

Des barrières à l’évaluation financière et de l’importance de l’efficience des marchés

L'action d'une entreprise, titre de propriété représentatif de cette dernière, est censée

refléter son état financier. L'équation comptable Actifs = Fonds Propres + Dettes met en

évidence la part représentative de cet actif financier dans le financement des entreprises. Par

extension et d'une manière sommaire, en supposant une proportion respectée des éléments du

bilan, l'augmentation du prix d'une action représente l'évolution positive de l'industrie de

l'entreprise, toute chose égale par ailleurs. A contrario, la baisse du prix d'une action

représente l'évolution négative de l'économie de l'entreprise.

Autrement dit, soit une entreprise fictive valorisée le 01/01/XX à 1 million d’euros,

financée à 100% par du capital et divisé en 100 actions de 10.000€ chacune. Cette société

détient 1 million d’euros d’actifs, de par l’équilibre entre actif et passif. D’un point de vue

comptable, chaque action représente 1% des biens de l’entreprise. Lorsque l’entreprise crée de

la valeur, cette valeur est ajoutée à l’actif et mise au résultat à distribuer au passif. Ce résultat

vient ainsi augmenter la valeur de chaque action. Une création de 100.000€ de richesse vient

ainsi augmenter la valeur de chaque action de 1.000€ (100.000€ / 100 actions). Sur cette base

nait l'idée qu'une action, cotée avec un prix de marché est censée refléter sa valeur. Le point

de vue comptable vient ainsi poser l’une des bases de l’évaluation d’une entreprise en prenant

la valeur passée des biens de l’entreprise. Le point de vue de l’analyse financière vient

compléter cette vision en y ajoutant les attentes futures espérées. La théorie générale

d’évaluation d’une entreprise par l’analyse financière est que sa valeur est la somme de ses

cash-flows futurs actualisés. Cette théorie vient incorporer l’espérance future de croissance

économique de la société évaluée dans la mesure où l’entreprise sera rentable si elle arrivera à

générer des cash-flows positifs dans le futur ; si elle n’arrive pas à générer de richesse,

l’entreprise est vouée à disparaître. Aussi, cette richesse ne peut se faire que si l’entreprise

dispose de moyens de productions, tels que ses machines ou encore sa main d’œuvre, qui

doivent être financés. Le financement est ainsi le nerf de la guerre.

Page 22: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

22

L’évaluation d’une société par l’analyse financière se fait par le biais des systèmes financiers

qui consistent en des marchés ainsi que des intermédiaires financiers qui y opèrent. Ils

permettent aux intermédiaires financiers agissant pour leur compte ou celui de leurs clients

directement sur les marchés de résoudre des problèmes de financement ou de gestion du

risque. De façon générale, un système financier sera efficace s'il permet aux investisseurs,

aux emprunteurs, aux hedgers et aux traders de pouvoir trouver une solution à leur problème

de financement ou également, sous un autre angle, de gestion de leur risque. Dans le cadre des

marchés actions, un système financier est qualifiable d'efficace si les entreprises peuvent

facilement avoir accès aux capitaux dont elles ont besoin pour soutenir leurs projets, si les

investisseurs peuvent facilement déplacer leur argent vers le futur en échange d'une espérance

de gain positive, au travers de dividendes et/ou d'une plus-value.

Considérons deux économies et leur système financier respectif. La première

économie (économie A), comparable à celle d'un pays développé, dispose d'un système

financier fortement développé dans lequel les acteurs de l'économie peuvent échanger à

travers des intermédiaires financiers relativement facilement. La deuxième économie

(économie B) quant à elle ne dispose pas des moyens nécessaires pour mettre en place et

maintenir un système d'échange financier efficace. Dans l'économie A, les actifs et contrats

pour apporter des solutions aux problèmes financiers de ses acteurs sont à disposition, son

système financier a ainsi des marchés qualifiables de complets. Les coûts pour arranger les

transactions sont faibles de par le nombre élevé d'intermédiaires se concurrençant ; le système

financier est alors qualifiable d’opérationnellement efficient. Son efficience informationnelle

suppose, elle, que dans cette économie les prix des actifs et des contrats reflètent toute

l'information relative aux valeurs fondamentales. L'économie B quant à elle n'est pas capable

de fournir cette efficience.

Les bénéfices d'un système financier fonctionnant correctement sont immenses. Dans

notre économie A, les investisseurs désirant déplacer leur argent vers le futur peuvent

facilement se connecter à des entrepreneurs nécessitant des fonds aujourd'hui pour développer

de nouveaux produits et services. De façon similaire, les entrepreneurs qui éviteraient de se

lancer dans leurs projets dans l'économie B à cause du risque trop élevé peuvent, dans

l'économie A, transférer ces risques à d'autres qui sauront les supporter. En augmentant le

nombre d'acteurs ayant accès aux besoins d'autres acteurs, les transactions peuvent prendre

place entre un nombre plus élevés d'étrangers, les bénéfices d'échanger peuvent ainsi dériver

d'un grand nombre de rencontres.

Page 23: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

23

Les acteurs financiers bien informés rendent les prix informationellement efficaces de

par leurs échanges. Quand ils achètent des actifs qu'ils pensent sous-évalués, ils tendent à faire

monter leur prix. Inversement, quand ils vendent des actifs qu'ils pensent surévalués, ils

tendent à faire baisser leur prix. Les interventions des acteurs agissant ainsi sur les marchés

financiers font refléter les informations qu'ils détiennent concernant la valeur des actifs. Par

contraste, l'économie B, disposant d'un système financier œuvrant pauvrement a de grandes

difficultés à allouer les capitaux à disposition dans l'économie parmi les nombreuses sociétés

qui peuvent s'en servir. Dans de telles économies, les transactions financières se limitent aux

connaissances, aux cercles familiaux et amicaux car les demandeurs de capitaux ont du mal à

trouver une contrepartie digne de confiance qui honorera ses engagements. Cette économie

n'utilise pas les ressources où elles sont les plus productives, elle les gaspille, elle n'est pas

allocativement efficiente.

Comment les prix reflètent précisément les informations fondamentales dépend du

coût pour obtenir ces informations et de la liquidité disponible aux échangeurs bien informés.

Le cadre réglementaire de l'économie A, avec ses standards comptables et ses

exigences de déclarations qui produisent des informations significatives et opportuns, réduit

les coûts pour obtenir ces informations et ainsi permet de réaliser une analyse fondamentale

plus précise, par laquelle il n’y a que peu de bruit d’information. Plus l'information est

disponible facilement, plus elle est retranscrite dans le prix des actifs. Les marchés liquides de

l'économie A permettent aux échangeurs bien informés de réaliser leurs ordres à bas coût. A

contrario, dans l'économie B les coûts élevés pour passer des ordres en limitent le nombre,

ayant pour conséquence de ne pas transmettre l'information, qu'ils véhiculent, au marché.

Dans ce cas, la rentabilité limitée par les coûts pour passer des ordres enlèvera de l'intérêt à

chercher ces échanges et donc les acteurs financiers n'engageront pas de ressources pour

collecter et analyser les informations et n'échangeront pas. Sans ces recherches et sans ces

échanges, les prix seront moins informatifs. Ainsi, plus un marché tendra à limiter les

barrières à l'échange, plus il facilitera les rencontres entre acteurs et plus il tendra vers une

efficience parfaite. La qualité d'un titre financier à retranscrire ses informations fondamentales

sur les marchés est ainsi fonction inverse des coûts à l'échange. La qualité de fonctionnement

d'un système financier est cruciale dans l'évaluation d'un titre.

La caractéristique principale rendant les marchés de l'économie A plus efficients

comparés à ceux de l'économie B est la régulation imposée par les agences gouvernementales

Page 24: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

24

et supra-gouvernementales. Les régulateurs cherchent à promouvoir la justesse et l'ordre des

marchés sur lesquels les opérateurs échangent à des prix qui reflètent la valeur fondamentale

sans encourir de frais de transactions trop élevés.

Regrettablement, certaines personnes voleront d'autres personnes si la chance leur en

ai donné, surtout si la probabilité de se faire attraper est faible ou si les sanctions encourues

sont trop faibles. Le nombre de façon que les gens ont de frauder ou de détourner des

richesses aura tendance à augmenter avec la complexité des marchés qui croit et parce que les

clients des intermédiaires financiers ont moins de connaissance et de compétences

relativement aux professionnels qui les servent. Sur des marchés non régulés, les pertes dues à

des comportementaux délictuels seront plus élevés.

Ainsi, l’aspect de marchés efficients est un critère crucial pour l’évaluation des actifs

financiers, en appui des théories des différentes écoles de pensées économiques. Les

considérations à prendre en compte pour évaluer une action financière sont les coûts de

transaction et les coûts nécessaires à l’obtention de l’information. Ce point est important, car

il démontre l’existence d’un écart entre la valeur réelle, ou intrinsèque, d’une action et sa

valeur cotée. Dans un monde parfait où l’information serait instantanément traitée et

répercutée par tous les acteurs financiers et économiques du monde, sans aucune restriction

quant aux échanges, le prix de l’action serait alors équivalent à la valeur intrinsèque de l’actif

réel dont il est la représentation. Ceci n’étant évidemment pas le cas, l’approche de l’analyse

financière va se concrétiser en l’approche d’une valeur.

La modélisation : Outil de valorisation

L’analyse fondamentale rassemble et traite des informations pour pouvoir prendre une

décision d’investissement, incluant une recommandation d’achat, de vente ou une position

neutre. Les informations rassemblées et la façon par laquelle elles sont traitées dépendent de

l’objectif de l’analyse. L’analyse fondamentale utilise des informations concernant

l’économie, le secteur et l’entreprise comme base pour ses décisions d’investissement, tels

que les taux d’emploi, le Produit Intérieur Brut, les parts de marchés sectorielles ou encore la

croissance des revenus de l’entreprise.

Page 25: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

25

Les modèles d’évaluation utilisés pour déterminer la valeur du capital d’une entreprise servent

à estimer sa valeur intrinsèque ou valeur fondamentale, qui est basée sur l’analyse de ses

caractéristiques et de ses fondamentaux. Les fondamentaux ainsi considérés dépendent de

l’approche d’évaluation utilisée ; dans une approche top-down, l’examen partira de

l’environnement économique, pour arriver à l’analyse des actifs d’une compagnie,

préalablement choisie dans un secteur prospère. Dans une approche bottom-up, un analyste

suivant un secteur anticipe les fondamentaux pour les compagnies du secteur afin d’en

déterminer une valeur. Qu’importe l’approche, l’analyse fondamentale questionne en réalité la

précision du marché à donner un prix à un actif équivalent à sa valeur fondamentalement

estimée. En partant du principe qu’une action cotée est sous-évaluée, l’analyse fondamentale

prédit qu’elle tendra à s’apprécier et inversement, une action cotée qui est surévaluée tendra à

se déprécier. Avec des target price (objectifs de prix) sur des périodes généralement de

plusieurs mois à un an, l’analyse fondamentale prédit une tendance de marché, soit à la

hausse, si l’actif est sous-évalué par rapport à sa valeur intrinsèque, soit à la baisse, si l’actif

est surévalué, soit neutre, si le prix de marché reflète assez bien la valeur intrinsèque du titre

financier. Ainsi est l’objectif de l’analyse financière lorsqu’il est question d’évaluer une

action cotée en Bourse : prédire une tendance.

L’analyse fondamentale se sert ainsi de modèles prenant en paramètres différentes

données marchés, secteurs et propres à l’entreprise évaluée. Ces modèles sont des

simplifications du monde réel. Deux principaux types de modèle sont utilisés par les analystes

financiers, selon le type de fondamentaux et de caractéristiques utilisés. Ces différents types

de modèles sont nécessaires pour permettre un recoupage des informations apportées et une

meilleure confiance dans l’estimation des valeurs intrinsèques.

Les premiers types de modèles sont les modèles dits de valeurs actualisées, ils estiment la

valeur intrinsèque d’une entreprise comme la valeur présente de ses futurs bénéfices espérés.

Ces modèles suivent le principe économique fondamental précédemment mis en lumière qui

formule que les individus reportent leur consommation, autrement dit, ils investissent, pour

obtenir des bénéfices futures supérieurs à une consommation actuelle. Les individus et les

entreprises réalisent des investissements parce qu’ils en espèrent un taux de rendement sur la

période d’investissement. Logiquement, la valeur d’un investissement devrait être égale à la

valeur actualisée des bénéfices futurs. Pour des actions ordinaires, l’actualisation de ses

cashflows, correspond à cette logique.

Page 26: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

26

Le modèle le plus simpliste est le modèle d’actualisation des dividendes qui spécifie

que les cashflows futurs sont les dividendes associés à l’action ; la valeur d’une entreprise est

égale à la somme de ses dividendes futurs actualisés. Aussi, l’expression du Modèle de

Dividendes Actualisés est V0 = ∑ [Dt x (1 + r)-t], avec V0 la valeur de l’action aujourd’hui à

t=0, Dt le dividende espéré en date t et r le taux de rendement espéré. Au niveau de

l’actionnaire, les cashflows reçus d’une action incluent les dividendes et les gains réalisés sur

la vente future. Si un investisseur a l’intention d’acheter une action pour une année, sa valeur

actuelle et la somme de deux cashflows : le dividende de l’année en cours plus le prix de

revente de l’action espéré autrement dit, V0 = (D1 + P1) x (1 + r)-1

, avec P1 le prix espéré en

date 1. Le prix de l’action en P1 peut s’estimer de façon similaire avec le dividende espéré en

date 2 ainsi que le prix de revente espéré en date 2 soit P1 = (D2 + P2) x (1 + r)-1

. Par

substitution, on obtient ainsi la valeur de l’action en V0 = D1 x (1 + r)-1

+ (D2 + P2) x (1 + r)-

2. Par répétition de cet exercice de décomposition, on obtient la valeur en V0 = ∑ [Dt x (1 + r)

-

t] + Pt x (1 + r)

-t. En étendant la période de détention de l’action à une durée infinie, apparait

la formule représentant la formule V0 = ∑ [Dt x (1 + r)-t] présentant la valeur d’une action

comme la valeur présente de tous ses dividendes futurs. La considération d’un futur infini est

valide dans la mesure où les entreprises cotées en Bourse sont établies pour opérer à l’infini.

Ce modèle rencontre cependant un problème pour les entreprises ne distribuant pas de

dividendes, comme c’est le cas pour certaines entreprises mid-cap (entreprises à capitalisation

moyenne). Il en va de même pour les sociétés dont les dividendes futurs sont difficilement

estimables. Dans la pratique, beaucoup d’analystes préfèrent pour cela utiliser un modèle de

Free-Cash-Flow-to-Equity (FCFE) avec comme hypothèse que la capacité d’une entreprise à

distribuer un dividende devrait être reflétée dans l’estimation des cashflows plutôt que les

dividendes espérés. Le calcul du FCFE commence par le calcul des cashflows opérationnel de

l’entreprise auxquels sont enlevés les dépenses d’investissement et rajoutés les emprunts net.

L’avantage de ce calcul est que l’intégralité des données nécessaires sont disponibles à dans

les documents comptables de l’entreprise et l’estimation des FCFE futurs s’établi plus

facilement. Le modèle s’écrit ainsi similairement à celui des dividendes actualisés comme la

somme des FCFE futurs V0 = ∑ [FCFEt x (1 + r)-t].

Un autre problème plus évident lors de l’utilisation du modèle d’actualisation des

dividendes futurs est qu’il nécessite une estimation de séries de dividendes à l’infinie, ou au

moins sur une période suffisamment longue pour que le taux d’actualisation rende la valeur

présente nulle. Pour simplifier ce processus, les analystes financiers prennent l’hypothèse que

Page 27: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

27

les dividendes vont évoluer à travers le temps à un rythme constant. Le Gordon Growth

Model (traduisible en Modèle de croissance de Gordon) est ainsi particulièrement approprié

pour évaluer les entreprises dans leurs phases de maturité, peu sensibles au cycle économique.

Avec l’hypothèse d’une croissance constante g, l’équation du modèle d’actualisation des

dividendes devient V0 = ∑ [D0 x (1 +g) x (1 + r)-t]. L’expression ∑ [D0 x (1 +g)] reprend les

cashflows futurs à l’infini qui croissent à un rythme g constant. Avec l’hypothèse que le taux

de rendement requis par les investisseurs r est strictement plus grand que le taux de croissance

g, la formule se transforme en la forme simplifiée du modèle de Gordon Shapiro et s’écrit V0

= [D0 x (1 + g)] / [(r - g)]. Ainsi, le Gordon Growth Model estime la valeur intrinsèque d’une

action comme la valeur actuelle d’une perpétuité croissante (si g = 0 on retrouve une

perpétuité classique). Vient alors la problématique de cette croissance constante et de son

estimation. Deux approches sont utilisées, une historique, l’autre plus déterminée. La

première approche détermine un taux de croissance à partir des dividendes passés avec une

régression linéaire. La deuxième approche reprend la logique du modèle FCFE et détermine le

taux de croissance comme le produit du retour sur investissement ROE et du taux de rétention

des profits b : g = b x ROE. Le taux de rétention des profits correspond à la part des profits

non distribués, et donc réinjectés dans l’entreprise pour ses investissements ; multipliés par le

retour sur investissement, il permet d’estimer cette proportion de réinvestissement accru par

l’effet de retour sur lui-même.

Les hypothèses ainsi soutenues par le modèle de Gordon Shapiro sont que

premièrement les dividendes représentent une bonne métrique à utiliser dans le but d’évaluer

une action. Deuxièmement, le taux de croissance des dividendes est éternel, autrement dit il

est perpétuel et ne change jamais. Troisièmement, le taux de rendement est constant à travers

le temps. Quatrièmement le taux de croissance est strictement inférieur au taux de rendement

requis. Ces hypothèses, bien qu’initialement venu apporter une amélioration par rapport au

modèle d’actualisation des dividendes futurs sont discutables car quelque peu trop simplistes

pour refléter les caractéristiques de l’entreprise à évaluer. De façon similaire au modèle

d’actualisation des dividendes futurs, le Gordon Growth Model n’est pas fait pour les

entreprises ne distribuant pas de dividendes.

Beaucoup d’autres modèles dérivent ainsi de l’hypothèse économique que la valeur

actuelle d’un actif correspond à l’actualisation de ses cashflows futurs. Certains modèles

prennent notamment en compte la situation de l’entreprise dans son cycle économique, dans

la mesure où les distributions de dividendes diffèrent d’un état à un autre. Même si chaque

Page 28: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

28

modèle vient apporter sa particularité pour complémenter ses pairs et ainsi apporter une

précision dans l’évaluation d’une action, aucun modèle de cette famille n’est suffisamment

solide pour prédire avec exactitude la valeur intrinsèque d’une entreprise. La valeur des

dividendes reste en effet incertaine dans le futur, l’entreprise pouvant se retrouver dans une

situation où elle aura besoin de s’autofinancer en quantité supérieure à l’habitude. Cela a été

le cas pour beaucoup de sociétés cotés (ou non) dans les années suivants la crise de 2008. La

méthode d’évaluation perd également en efficacité si la société se trouve dans une situation

financière chancelante, avec des rendements futurs incertains.

Les deuxièmes types de modèles, qualifiés de modèles des multiplicateurs de marché,

se basent quant à eux sur des multiples de prix d’action ou de valeur de marché d’entreprise.

Le terme de multiplicateur fait référence à un ratio qui compare le prix d’une action avec un

flux monétaire ou une valeur qui permet l’évaluation de la valeur relative de cette action.

Cette méthode est principalement utilisée en tant que moniteur de marché : si le ratio tombe

sous une valeur spécifique, les actions sont alors identifiées comme candidates à l’achat, ou

inversement, si le ratio dépasse une valeur spécifique, l’action sera pour la vente. Un certain

nombre d’indicateurs sont ainsi utilisés par les analystes financiers, tels que le Price-to-

Earnings ratio (P/E), le Price-to-Book ratio (P/B), le Price-to-Sales ratio (P/S) ou encore le

Price-to-Cashflows ratio.

Une critique de tous ces multiplicateurs est qu’ils ne prennent pas en considération le

futur, ils ne se servent que des données présentes de la société, issues soit de la comptabilité

soit du marché (ex. capitalisation boursière). Cette critique est cependant contrée par

l’utilisation d’une variété de techniques incluant des prévisions de fondamentaux au

dénominateur. Le résultat obtenu peut remarquablement changer du multiplicateur calculé sur

la base des données comptables, présentant des valeurs présentes voir passées. Dans l’absence

de prévisions explicites de valeurs fondamentales, l’analyse résulte en une prévision implicite.

Un ratio multiplicateur est souvent associé à un fondamental de l’entreprise. Bien que

l’approche des ratios multiplicateurs soit fréquemment utilisée indépendamment des modèles

d’actualisation de cashflows futurs, le fondamental sélectionné est généralement obtenu à

travers une méthode d’actualisation de cashflows, associés au fondamental. La connexion

entre les deux peut approfondir l’appréciation des facteurs de l’analyse qui affectent la valeur

du multiple. Cela permet également d’expliquer certaines raisons pour des « incohérences »

dans les multiples qui n’impliquent pas forcément un mauvais pricing. En partant du modèle

Page 29: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

29

de Gordon Shapiro et en rappelant l’idée que le prix de marché d’une action tendra vers la

valeur intrinsèque de l’action, soit, en supposant que la valeur intrinsèque V0 est égale au prix

P0 : P0 = [D0 x (1 + g)] / [(r - g)]. En posant D1 = D0 x (1 + g), D1 équivalant ainsi les

dividendes espérés l’année suivante, on obtient P0 = [D1 / [(r - g)]. Pour obtenir le Price-To-

Earnings ratio (P/E), on incorpore les revenues E (pour earnings = Résultat Net) en divisant

de chaque côté P0/E1 = (D1/E1) / [(r - g)]. Le rapport de D/E est également connu comme le

ratio de redistribution de dividendes p, ou, la part du résultat net redistribué sous forme de

dividendes. P0/E1 = (D1/E1) / [(r - g)] = p / [(r - g)]. L’équation ainsi obtenue indique que le

P/E ratio est inversement lié au taux de rendement et positivement lié au taux de croissance.

Autrement dit, une augmentation du taux de rendement implique une baisse du P/E ; une

augmentation du taux de croissance implique une aussi du P/E. De même, le P/E ratio est

positivement lié au taux de distribution de dividendes p. Le multiple met ainsi en lumière le

lien fait entre l’activité de l’entreprise, l’espérance future de sa croissance et le prix du titre.

Une autre approche des ratios multiplicateurs, plus largement utilisée, est la méthode

des comparables. Cette méthode compare essentiellement les valeurs relatives estimées en

utilisant des multiples ou des valeurs relatives de multiples. L’hypothèse économique

rationnelle sous-jacente à cette méthode est la Loi du prix unique, qui stipule que tous les

actifs identiques devraient se vendre au même prix. La méthodologie implique l’utilisation

d’un ratio multiplicateur pour évaluer si un titre est soit normalement évalué, soit sous-évalué

ou surévalué en relation à une valeur benchmark du multiplicateur. Les choix pour le

benchmark peuvent inclure le multiple d’une entreprise similaire, c’est-à-dire dont l’activité

est fortement ressemblante ; une moyenne ou encore une valeur médiane issue du secteur

d’activité de l’entreprise. Identifier une entreprise benchmark individuelle ou encore le niveau

de secteur dans lequel se trouve l’entreprise peut présenter un défi important. Beaucoup de

grandes entreprises opèrent plusieurs lignes business ; l’échelle et la portée de leurs

opérations peut ainsi grandement varier. La contrainte est de trouver une entreprise

suffisamment similaire dans ses activités d’après plusieurs nombres de critères et de

dimensions, comme la taille, les lignes produits, les services, les taux de croissance. De plus,

cette approche s’attarde à trouver des écarts entre l’entreprise évaluée et son secteur. Une fois

une différence significative trouvée, l’analyse doit investiguer plus en profondeur ces

contradictions pour comprendre l’origine même de l’écart. Une extension de cette approche

est la comparaison de l’entreprise avec elle-même à travers le temps. L’évolution de ses ratios

indique la tendance que prend l’entreprise, en termes de croissance, de rentabilité, de

Page 30: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

30

dividendes distribués ou conservés pour son développement, etc. L’avantage majeur de cette

approche par les comparables des prix multiplicateurs est qu’elle permet facilement de

réaliser une comparaison relative, contre le marché ou d’autres comparables, et contre elle-

même à travers le temps. L’analyse va ainsi tendre à indiquer contre quelle entreprise ou

moyenne de marché le titre est sur ou sous-évalué vis-à-vis d’un autre titre ou secteur. Dans le

cadre d’une comparaison d’un titre vis-à-vis de son secteur ou d’un pair, l’analyse va être

limitée en ce qu’elle ne fera qu’indiquer une valeur par rapport à un autre titre et non une

valeur propre à l’entreprise.

Les marchés actions, bien qu’ayant une forte efficience, ne peuvent retranscrire en

temps réel la valeur vraie d’un titre financier. Lorsqu’il est question d’évaluer une action

cotée en Bourse, l’analyse financière va ainsi se donner comme mission d’indiquer l’écart

avec lequel une action coté diverge de sa valeur intrinsèque, autrement dit, d’estimer la valeur

intrinsèque d’un titre et de la comparer à son prix coté avec comme idée que la cotation tendra

in fine à se rapprocher de la valeur intrinsèque du titre. En cas de sous-évaluation, l’analyse

aura comme conclusion que le titre s’inscrit dans une tendance haussière ; dans le cas d’une

surévaluation, l’analyse conclura à une tendance baissière. Une conclusion est également

valable dans le cas où la valeur intrinsèque estimée serait sensiblement identique au prix de

l’action : le titre se trouve dans une tendance neutre ; l’analyse fondamentale sera alors dans

l’attente d’informations neuves.

L’analyse fondamentale est dépendante des données à sa disposition, qu’elles

proviennent de l’économie en générale, qui aura un impact plus ou moins direct sur la société

évaluée, qu’elles proviennent du secteur dans lequel se situe l’entreprise, et dans lequel elle

aura des interactions avec ses concurrents, ses fournisseurs, ses clients, ou encore des données

propres à l’entreprise, qu’elle retrouve au travers de ses différents états financiers et, de façon

générale, des décisions du management.

Pour en arriver à une conclusion quant à une tendance de marché, l’analyse financière

va considérer trois aspects autours desquelles elle va étayer un point de vue: les éléments

comptables de l’entreprise évaluée seront la base de l’analyse et serviront à comprendre la

valeur « passé » de l’entreprise : comment l’entreprise a installé son business, et évolué à

travers le temps. Les espérances de croissance attendues, représentant l’espérance de gains

futurs, serviront quant à elles à estimer ce qui peut être attendu de l’entreprise, la croissance et

les gains qu’elle peut encore apporter. Finalement, reste la valeur que le marché donne au titre

Page 31: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

31

financier, qui, une fois l’évaluation intrinsèque du titre réalisée, permettra de projeter l’action

dans le futur et d’indiquer si le titre va à la hausse ou à la baisse.

II - L’APPORT DE L’ANALYSE TECHNIQUE

Les fondements théoriques de l’analyse technique

L’analyse technique est une boite à outil qui se base sur des historiques de cours. Elle

permet d’analyser de manière pertinente les tendances boursières en matérialisant, sous forme

de graphique, le comportement de la rencontre entre les acheteurs et les vendeurs d’un actif

financier. En outre, l’analyse technique essaye de comprendre et d’évaluer le comportement

des intervenants de marché. Elle trouve son efficacité lorsque le marché est inefficient car les

opérateurs de marché sont submergés par leurs biais psychologiques lors de prises de

décision en situation d’incertitude. Ainsi, l’analyse technique s’appuie sur des fondements

théoriques que l’on peut retrouver chez les tenants de l’analyse comportementale et

psychologique. En effet, l’école comportementaliste contredit l’école néo-classique sur la

théorie de l’efficience de marché.

Les néo-classiques considèrent que le cours d’un actif ne peut s’éloigner très

longtemps de sa valeur fondamentale car les arbitragistes corrigent ces anomalies de marché

et le cours revient ainsi à sa valeur fondamentale. Néanmoins, les comportementalistes

considèrent que certains phénomènes restent inexpliqués par les seuls fondamentaux.

Alors comment expliquer ce décalage de cours d’un actif financier de sa valeur

fondamentale ?

En reprenant les travaux de KAHNEMAN et TVERSKY en 1979, sur la théorie des

perspectives aléatoires, nous allons essayer de comprendre quels sont les facteurs qui

influencent les agents économiques, lorsqu’ils sont en situation d’incertitude lors de leurs

prises de décision. En effet, les opérateurs de marché sont soumis à de nombreux biais

psychologique propre à la psychologie humaine que nous allons étudier.

Page 32: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

32

II – 1 L’analyse comportementale : les biais psychologiques

1.1 Les biais cognitifs

Les biais cognitifs portent sur l’importance de nos connaissances et de nos croyances

dans le processus décisionnel. Il montre que les opérateurs de marché ont souvent recours à

des raccourcis cognitifs lors de la prise de décision. Les individus vont se référer à des

heuristiques. Ce sont des règles empiriques qui permettent de simplifier le raisonnement en

matière d’analyse et de prise de décision dans le but de gagner du temps. De ce fait, les

individus ne prennent pas en compte tous les éléments qui leurs sont à leurs disposition. Dans

la précipitation, ils prennent donc des positions erronées car ils n’ont pas été rationnels dans

leur raisonnement.

Le biais d’ancrage

Le biais d’ancrage défini le fait que la prise de décision est influencée par le contexte

dans lequel elle a été prise. En effet, on retrouve fréquemment ce biais dans le cas où une

décision a été prise en situation d’incertitude. La disponibilité immédiate de l’information met

les individus sur le même piédestal mais l’interprétation peut être différente d’un individu à

l’autre. Un investisseur qui joue un titre à la hausse prendra ses gains dans la zone de

résistance. A contrario, un investisseur qui joue un titre à la baisse prendra ces bénéfices sur la

zone de support. L’analyse technique permet donc de renforcer la pertinence du biais

d’ancrage en apportant un soutien visuel sur ces zones de support et de résistance.

Le biais de conservatisme et la dissonance cognitive

Le biais de conservatisme met en avant l’individu sur son autorité dans la prise de

décision. En effet, l’individu porte une importance à ses connaissances notamment quand sa

prise de décision concorde avec celle-ci. Deux composantes se définissent : la composante

affective qui caractérise les émotions et la composante cognitive relative à la connaissance et

la croyance. Les idées ancrées d’un décideur se renforce par les croyances qui concordent

avec les informations obtenues. La composante émotionnelle se forment par le regroupement

croyance et de savoir renforcé dans l’esprit d’un individu.

Page 33: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

33

La dissonance cognitive évoque la situation où laquelle l’individu est en contradiction

avec les infos obtenues et avec les croyances et les connaissances ce qui le met dans un état

de stress difficile à gérer. On en dégage l’idée selon laquelle la perception d’un individu est

sélective. En ignorant les infos, l’individu va réduire cette dissonance cognitive. De manière

globale, plus l’investigation de l’investisseur est importante et plus il lui est difficile de

changer son positionnement. Dès lors, l’individu élimine toutes les infos qui sont en

contradiction avec ces croyances et connaissances. La dissonance cognitive semble supprimer

toute objectivité de l’individu.

La loi des petits nombres

Les probabilités sont efficaces lorsque l’échantillon étudié est important. Cependant,

certain intervenant de marché utilise un faible échantillonnage pour en tirer une loi générale.

C’est une erreur en matière de probabilité car en situation d’incertitude ces opérateurs

sont submergé par leurs biais cognitifs et ne tiennent pas compte de la loi des grands nombres.

Ces individus transforment les probabilités et surpondèrent certains événements dont la

probabilité d’occurrence est pourtant faible et inversement, ils ont tendance à sous-pondérer

certains évènements dont la probabilité d’occurrence est pourtant forte. La loi des petits

nombres met en avant l’efficacité de certaines figures chartistes qui permet de repérer

clairement cette réaction des investisseurs.

Le biais momentum

Il démontre qu’un individu se base sur des évènements qui se sont passés récemment

pour prendre leur décision. On remarque que l’investisseur est optimiste dans un marché

haussier et pessimiste dans un marché baissier. Il pense que la hausse récente va se poursuivre

et inversement dans le cas d’une baisse, il envisage que la baisse récente va se poursuivre.

Dans ce cas de figure, il néglige totalement la loi des grands nombres et émet sa prévision à

partir d’une série courte de données. Les acheteurs se positionnent à la hausse lorsqu’un actif

financier progresse à la hausse. La hausse entraine la hausse et arrivé sur le sommet de

l’ascension, d’autres acheteurs vont entrer dans le marché en passant que la hausse va

continuer. Néanmoins la force acheteuse s’essouffle et les acheteurs sont pris de panique car

les vendeurs ont pris le dessus et le cours de l’actif financier se retourne à la baisse. Ce

Page 34: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

34

comportement est visible sur certains indicateurs techniques qui identifient ce retournement

de tendance.

1.2 Les biais émotionnels

Les bais émotionnels se réfère à la théorie de l’utilité espérée évoqué par NEUMANN

et MORGENSTERN. Cette théorie explique comment les investisseurs réagissent dans un

contexte incertain et remet en cause la théorie des néo-classique selon laquelle tout individus

est rationnel et omniscient. Les comportementalistes décrivent donc deux principales

caractéristiques mis en avant par la théorie de l’utilité espérée : un individu accepte plutôt

une perte aléatoire à une perte certaine et préfèrent un gain certain à un gain aléatoire. Il

pense qu’il est plus difficile pour les individus de maitriser leurs pertes que leurs gains.

Le biais de l’attribution personnelle

Le biais de l’attribution personnelle s’explique par le fait qu’un individu a recours à

une pensée magique pour initier sa prise de décision. En effet, l’individu refoule un sentiment

de supériorité à l’écart des autres individus et ce surplus d’optimisme le pousse à croire qu’il

est supérieur aux autres. Lorsqu’un individu utilise cette pensée magique lors d’une prise de

décision et que sont choix s’avère être juste, il en déduira que cela est uniquement la

conséquence logique de ces qualités personnelles. Tandis que si le résultat est contraire à sa

prise de décision, il portera systématiquement la faute sur le mauvais sors. L’individu ne

prend pas en compte la globalité du problème et s’induit en erreur car il est focaliser sur soi-

même et agit par conséquent de manière irrationnel.

Le biais dynamique

Les opérateurs du marché ont tendance à se fier aux résultats enregistrés

précédemment. Deux types de comportement en découlent : une série de gain occasionnerait

un sentiment d’invincibilité et une prise risques plus considérable. Une série de perte

engendrerait un traumatisme et l’individu se repliera des marchés.

Page 35: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

35

1.3 Les conventions

Définition

Une convention se définie comme un commandement ou un principe entre divers

personnes ou groupe. Ce commandement peut être officiel ou officieux. Il s’agit d’un principe

de conduite que toute personne connait, juge comme rationnel et à laquelle ils se conforment,

même si elle n’est pas toujours fondé scientifiquement. Dans une situation de doute, il est très

difficile même voire impossible pour un investisseur de prévoir la progression des marchés.

Effectivement, dans cette situation, un individu accepte les codes de la collectivité même s’il

n’y adhère pas personnellement, car les refuser est une menace d’être mis à l’écart.

Une convention symbolise une régularité d’état d’esprit pour des investisseurs placé

dans une situation semblable. Face à cette situation, ils vont avoir le même comportement

pour décider en situation de doute. La convention donne les moyens de gérer cette situation et

principalement de se décider. Car il pense, ou même pense savoir, comment les autres

investisseurs pourrait réagir dans un contexte incertain.

Conditions à la formation d’une convention

Pour qu’une convention prenne forme, il faut que la plus part des individus y adhèrent.

L’individu initiateur de la convention espère que les autres individus y adhèrent également.

Si, les autres individus y adhèrent également, on décrit ce phénomène de prophéties

autoréalisatrices. Ce phénomène explique donc le fait qu’un individu peut générer une règle

de conduite qui sera suivie par les autres individus même si cette dernière n’a aucun

fondement scientifique.

La convention en question est donc renforcée et sa crédibilité dépend de la confiance

que portent les autres individus à son égard. Ce phénomène irrationnel peut expliquer

pourquoi on remarque des variations de prix d’un actif financier de sa valeur fondamentale

qui ne peuvent être expliqués par la seule analyse fondamentale.

L’irrationalité peut être à l’origine de formation de bulles spéculatives lorsque les

opérateurs de marché sont pris au piège par leurs biais psychologique mais ce n’est pas la

raison principales de la formation de ces bulles spéculatives. D’après les comportementalistes,

l’irrationalité des investisseurs est un facteur essentiel dans l’inefficience de marché. Pour

eux, elle serait à l’origine de ces décalages de cours entre la valeur boursière et la valeur

Page 36: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

36

fondamentale. Malgré la diffusion quasi instantanée de l’information à l’ensemble des

individus, il existe des disparités informationnelles d’individu à un autre. En effet, certains

individus, issue de grandes institutions, peuvent avoir des informations privilégiées pour

laquelle les autres individus n’ont pas accès. Dans un contexte incertain, ces derniers vont

suivre l’individu qui s’est positionné sur la nouvelle convention en contradiction avec le

consensus dominants. On peut alors parler de comportement moutonnier, de rationalité

mimétique ou encore de rationalité autoréférentielle. Tous les individus se basent sur une

règle fausse qui finit par être rationnelle lorsque son utilisation devient massive.

Ce comportement peut être assimilé à la célèbre étude de KEYNES sur le concours de

beauté qui met en évidence le phénomène pour lequel les individus vont adopter le même

comportement pour se fondre dans la masse et en vue de ne pas être marginalisé par le refus

de cette mode. Néanmoins, les modes ne durent jamais très longtemps et changent assez

fréquemment. C’est pourquoi, l’individu doit être attentif et être sur le qui-vive pour pouvoir

anticiper ces changements de mode. La convention est conforme dès lors que les investisseurs

soutiennent toujours les signaux fournis de cette règle. Il va de soi que les investisseurs

devront toujours vérifier la viabilité de cette convention.

Ainsi, les biais psychologiques expliquent de manière pertinente pourquoi il subsiste

des décalages entre le cours bousier d’un actif financier et de sa valeur fondamentale.

Néanmoins, les biais psychologiques n’est qu’un facteur par mis d’autres et il ne peut à lui

seul, expliquer les raisons de cette divergence cours.

La formation d’une convention

Une convention prend vie lorsqu’elle s’oppose au consensus dominant. En effet, il faut

que la convention indique un changement de marché contraire au consensus dominant. Dans

une éventualité haussière les investisseurs vont s’offrir le pessimisme ambiant et dans une

éventualité baissière ils vont vendre l’optimisme ambiant du marché.

Confirmation d’une convention

La confirmation d’une convention réside sur l’importance que porte l’ensemble les

investisseurs à cette dernière et surtout, de l’approbation du marché dominant à son égard. La

Page 37: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

37

confirmation de la convention est déterminée donc par la confiance que lui accordent le

marché dominant et les opérateurs de marché qui la compose.

La fin d’une convention

Cette étape est aussi celle où la convention arrive à son apogée, car elle est partagée

par la totalité de la communauté financière, Plus l’irrationalité est à son sommet et plus la

convention est forte. La modification de celle-ci peut se faire de manière brusque ou lente.

Durant un krach boursier, beaucoup d’opérateurs réalisent de très mauvaise opération.

Ces intervenants sont forcés de voir le changement de convention et vont se mettre à la

recherche d’une nouvelle. Une convention peut mettre du temps à changer car l’ancienne est

toujours solidement consolidée dans les esprits. Les opérateurs professionnels s’aperçoivent

que les investisseurs les acceptent avec moins d’entrain. Ils vont donc exploiter cette

information pour initier des positions qui seront les prémices de la nouvelle convention.

1.4 L’analyse psychologique

Il est assez courant en bourse que les opérateurs cherchent une explication à la suite

d’un fort mouvement de marché. L’analyse psychologique est un moyen par lequel on peut

prévoir certains comportements à l’origine de ces retournements majeurs de tendance. De

plus, dans le marché financier actuel, il est courant de constater de nombreuses divergences

entre le consensus dominants des experts et des professionnels par rapport au marché ambiant.

Ce constat peut paraitre étrange surtout de la part de l’école néo-classique mais on

peut l’expliquer du fait que le marché a anticipé avant le consensus dominant, l’évolution des

fondamentaux. En partant du principe que le marché a toujours raison, on peut dire que celui-

ci peut être considéré comme un baromètre avancé de l’économie et surclasse les prévisions

des experts. L’analyse technique permet, à l’aide de ces outils graphiques, de repérer le

dominant ambiant du marché en fonction de signaux élaborés par l’analyse chartistes.

Le phénomène des prophéties autoréalisatrices n’explique pas à elle seule tout les

décalages de cours entre la valeur boursière et la valeur fondamentale. En effet, l’analyse

psychologique permet de détecter de manière très précise le comportement des interlocuteurs

Page 38: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

38

de marché. La récurrence de ces comportements est identifiable par les graphiques et se

traduisent sous forme de signaux. Grace à l’historique de cours, les graphiques permettent

donc de distinguer certain comportements récurrents car les biais psychologiques sont figés

dans le temps. En effet, on peut retrouver des comportements similaires sur des espaces temps

différents. Néanmoins, les prophéties autoréalisatrices peuvent être remises en question car

certaines configurations graphiques étaient déjà visibles avant même l’apparition de l’analyse

technique sur les marchés financiers. On peut en conclure que ces configurations graphiques

peuvent être indépendantes de l’approche de l’analyse technique. Deux hypothèses émergent

de ce constat :

Les prophéties autoréalisatrices soutiennent l’idée sur laquelle

l’analyse technique doit son efficacité essentiellement aux biais cognitifs. Néanmoins,

ce n’est qu’une composante parmi tant d’autres. La récurrence des comportements

vient appuyer ce fait.

L’hypothèse de l’efficience des marchés est aussi remise en cause. En

effet, cette théorie nie le fait que l’on peut se baser sur les évènements passés pour

établir une prévision sur le futur. Néanmoins, certaines configurations graphiques

permettent de constater des phénomènes récurrents et de les prévoir, même si ces

comportements ne se reproduisent pas à l’identique sur l’espace temps.

L’analyse technique est donc un outil efficace pour les investisseurs car elle permet de

comprendre de manière précise les émotions des autres investisseurs. Néanmoins, son utilité

peut être faussée car elle ne protège ces investisseurs aguerris de leurs propres erreurs.

La réaction du marché

En effet, un actif financier peut s’équilibrer voir même chuter face à de bonnes

nouvelles. Plusieurs facteurs permettent de mieux comprendre ce phénomène. Cette

information a déjà été devancée par les intervenants, et sa mise à disposition ne fait que

confirmer ce que les investisseurs connaissaient déjà. Ainsi, elle n’est pas considérée comme

suffisamment favorable pour le marché. Cette perception dominante sur le marché est

extrêmement baissière et ne suffira pas au retournement du consensus dominant. Elle

permettra, dans le meilleur des cas, de causer un rebond de l’actif financier mais la tendance

baissière continuera irrémédiablement sa trajectoire. Le marché peut donc progresser

Page 39: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

39

complètement à l’inverse des nouvelles publiées, mais il peut aussi être dans la même ligne

directrice, sans raison apparente.

Il est souvent possible d’expliquer un mouvement antérieur, car quelques éléments

qui n’étaient pas visible le deviennent. Quelques individus peuvent avoir une information

privilégiée. Ces personnes exploitent cette information en vendant ou achetant l’actif

financier, amenant un mouvement des cours. Le bouleversement de consensus dominant peut

être une autre explication. Il n’est pas inhabituel d’avoir une cascade de nouvelles négatives et

de voir malgré tout une continuation du mouvement haussier.

Pourquoi cette écart entre le comportement des marchés et la pensée dominante ?

Entre les deux, les opérateurs de marché devront systématiquement favoriser le

consensus de marché à celui des experts. Il peut aussi exister un consensus dominant qui

n’est pas fatalement accentué par des nouvelles publiées. L’opérateur ne doit pas chercher la

cause de cet écart mais toujours prendre la température générale du marché.

Dans un marché peu liquide, certains investisseurs vont engendrer la rupture d’un

support ou d’une résistance, dans l’intention d’avoir un mouvement baissier ou haussier. La

raison est seulement stratégique ou technique, et banni toute raison d’ordre fondamentale.

L’effet de mode a une conséquence non négligeable sur le cours boursier quoi qu’en disent les

partisans de la théorie néo-classique. Par exemple, quelques titres qui offrent de bonne

espérance, peuvent être négligés par les opérateurs car ils ne sont pas revendiqués par les

analystes et les journaux financiers.

Les bulles spéculatives

André ORLEANS soutient le principe d’une rationalité autoréférentielle qui selon lui,

serait à l’origine de bulles spéculatives rationnelles. En effet, ces bulles peuvent se construire

même en présence d’individus complètement rationnels. Les investisseurs iront

rationnellement s’appuyer sur la convention dominante pour se positionner sur le marché car

ils pensent qu’il est nécessaire de prendre la tendance de marché plutôt que de fonder leur

raisonnement à partir de la valeur fondamentale. La présence d’erreurs répétitives est une

caractéristique de la nature humaine. Le fameux adage boursier « Laissez courir vos profits et

coupez rapidement vos pertes » insiste sur la prévention de ces comportements naturels qui

Page 40: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

40

dicte la pensée de l’individu et l’induit souvent en erreur. Ainsi, on peut constater que les

investisseurs sortent trop tôt de leur position gagnante et attendent longuement avant de

mettre fin à leurs positions perdantes.

Une bulle spéculative peut se définir comme le fait que les investisseurs sont pris par

une euphorie généralisée pour plusieurs raisons économiques et se positionne à l’achat pour

soutenir une tendance fortement haussière. En effet, les périodes de bulles boursiers reflètent

le comportement mimétique des intervenants de marché ainsi qu’une abondance de liquidité.

Dans ce contexte, les banques sont moins restrictives et accordent des prêts plus facilement à

des projets auxquelles elle aurait refusé en temps normal. Ces bulles sont facilement

identifiables par les outils chartistes et fond l’objet d’une récurrence dans l’espace temps car

les marchés financiers sont cycliques. On la considère comme le reflet des comportements

irrationnels généralisés des opérateurs de marché. Ce phénomène coïncident avec le constat

fait par l’école conventionnaliste et comportementaliste. A la différence, les orthodoxes met

en avant que la variation d’un cours bousiers de sa valeur fondamentale serait la cause de

l’apparition de ces crises non anticipée. En effet, ces bulles boursières ne devraient pas existé

car les arbitragistes sont censés éliminer toute inefficience de marché. Néanmoins, les faits

nous montrent que ce phénomène est notamment fréquent et durable et n’ayant aucunes

explication fondamentale concrète. L’irrationalité des intervenants de marché peut être la

cause principale de la volatilité des cours boursiers.

Les leçons à tirer de l’analyse psychologique

L’analyse psychologique permet aux intervenants de marché d’établir des règles de

conduite qui les amènent à des prises de décisions simples et pertinentes. L’analyse

psychologique est un indicateur puissant qui permet de jauger efficacement le sentiment

dominant d’un marché.

Lors de la publication d’une nouvelle information, qu’elle soit bonne ou mauvaise,

l’individu devra attendre et analyser la réaction des autres individus avant de prendre position

sur le marché. En toute logique, le cours d’un actif financier tend à s’apprécier lorsque

l’information est positive et inversement, il aura tendance à se déprécier lorsque

l’information reçue est négative. En cas d’irrégularité du marché, l’individu devra être

vigilant et réagir de manière approprié en fonction de la réaction des autres individus face à

Page 41: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

41

cette situation irrégulière. Il devra donc d’une part, identifier la tendance en cours et d’autre

part, analyser le comportement des autres individus post publication de l’information pour

effectuer un diagnostique exacte du sentiment de marché.

Comportement de marché après une nouvelle négative : annexe 1

Comportement de marché après une nouvelle positive : annexe 2

On en conclu donc que la publication d’une nouvelle information n’est pas un fait

important pour l’investisseur, mais au contraire, c’est plutôt la manière dont elle est perçue

par l’ensemble des opérateurs de marché qui va être une information capitale sur le dominant

ambiant du marché. De ce fait, l’individu va adapter sa position en fonction du dominant

ambiant du marché et ne doit surtout pas rechercher une explication à ces fluctuations de

marché qui pourraient altérer la justesse de son analyse. En effet, certaines fluctuations

boursières importantes sont uniquement dues à un changement du consensus dominant ou tout

simplement causées par un effet de panique des investisseurs.

Néanmoins, l’analyse psychologique reste limitée car elle ne permet pas de situer

précisément ces retournements de tendances. Cette limite est palliée par l’analyse graphique

qu’offre l’analyse technique, car elle donne la possibilité de visualiser certains signaux qui

permettent à l’investisseur de repérer précisément les points d’entrées et de sorties de ces

fluctuations de tendances boursières.

Malgré tout, l’analyse psychologique est un moyen non négligeable qui permet de

guider l’investisseur des évolutions de comportements de marché. Elle met en avant le fait

qu’il existe fréquemment des écarts important entre la valeur boursière d’un titre et de sa

valeur fondamentale. Elle explique notamment que les informations publiées qui sont

extrêmement positives ou négatives ne sont pas spécialement un fort signal d’achat ou de

vente. Les investisseurs expérimentés soulignent le fait qu’il faut raisonner à l’inverse des

magazines ou des journaux. En effet, il faut penser à acheter un actif financier lorsqu’il est

décrié par les médias et être vendeur lorsqu’ils sont extrêmement optimistes sur la valeur. Ce

raisonnement prend tout son sens sur le fait qu’il n’y a plus assez d’investisseurs pour soutenir

la hausse de la valeur car l’ensemble des investisseurs sont déjà acheteurs de la valeur. De ce

fait, la probabilité de la baisse du titre est plus grande que celle de continué à la hausse. C’est

pourquoi, l’individu doit mettre en place une méthode d’analyse personnelle qui lui permettra

d’anticiper la réaction du marché face aux différentes publications. Dans le cas où le marché

Page 42: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

42

réagit contrairement aux publications, l’individu devra alors être sur le qui vive afin de

détecter si la convention dominante actuelle n’est pas en train de changer.

1.5 Origine et principes de l’analyse technique

Cette méthode est suivie par de nombreux opérateurs. Il est donc crucial de bien la

connaitre pour mieux appréhender la rationalité ou l’irrationalité des autres intervenants de

marché. Les professionnels de marché, loin d’être eux-mêmes naïfs, l’utilisent et la

recommandent. Même en supposant que l’analyse technique soit une approche peu fondée

scientifiquement, et dont l’efficacité s’expliquerait essentiellement par les croyances des

opérateurs, cela ne suffirait pas à la discréditer. Les phénomènes des prophéties

autoréalisatrices montrent que même en présence d’un modèle faux, il suffit que les gens y

croient pour qu’il fonctionne. L’analyse technique n’est pas une méthode infaillible.

Elle permet simplement d’analyser la psychologie des intervenants et de définir les

stratégies appropriées à mettre en œuvre. L’analyse technique est une méthode pragmatique

comme une boite à outils qui se focalise essentiellement sur la psychologie des opérateurs.

Elle sert surtout de baromètre de marché et permet de détecter les mouvements

excessifs des foules. Il s’agit simplement d’un outil d’analyse efficace des mouvements de

marché.

Les protagonistes de l’analyse technique

Munehisa HOMMA

L’analyse technique est une ancienne méthode introduite en Orient par Munehisa

HOMMA, père des bougies japonaises. Grand trader du XVIIIème siècle, il aurait accumulé

une richesse en spéculant sur les prix du riz. D’après la légende, HOMMA aurait engorgé plus

de 100 transactions successives gagnantes. Ce personnage à l’origine des bougies japonaises

définit cette méthode comme étant la représentation d’une somme de figures qui

indiqueraient, de façon très visuelle, la durée du consensus dominant, les périodes de doutes

ainsi que d’indécision. Elles peuvent aussi servir à déceler les phases de retournements. En

Page 43: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

43

1980 Steve NISON, ancien analyste technique chez Merrill Lynch, importe le concept de

l’analyse technique en Occident.

Charles DOW

Charles DOW est l’un des précurseurs de l’analyse technique en Occident. Il considère

que les marchés financiers sont capables de prévoir l’ensemble des données économiques

avec une certaine longueur d’avance. Dès lors, l’analyse technique sert de baromètre à

l’ensemble des intervenants de marché. En effet, elle permet donc à ces derniers d’identifier

clairement l’état de santé d’une économie et d’en déterminer son évolution future. De plus,

DOW fut l’un des premiers individus à identifier les mouvements de délits d’initiés à l’aide

des indicateurs graphiques.

Ralph Nelson ELLIOT

ELLIOT est l’inventeur du célèbre indicateur graphique, les vagues d’ELLIOT. En

effet, après avoir étudié en profondeur les cours boursiers, il constate de nombreux points

communs entre les tendances boursières et le mouvement des vagues des océans. La théorie

des vagues d’ELLIOT met en évidence le fait que les fluctuations de marchés suivent une

certaine logique et respectent de ce fait, une loi universelle. En effet, il fait le rapprochement

entre la cyclicité des marchés financier et le nombre d’or de FIBONACCI et en déduit qu’il

existe une harmonie similaire dans les tendances boursières. Cette approche a permis de

développer plusieurs indicateurs graphiques qui permettent d’identifier les zones de

retracements des prix d’un actif financier lors des fluctuations boursières ainsi qu’en

déterminer leurs objectif de prix.

Richard W. SCHABAKER

SCHABACKER est l’un des premiers à avoir mis en avant le swing trading, méthode

qui consiste à acheter ou vendre un actif financier uniquement en se référant de l’analyse du

cours et de ces oscillations. Cette approche a permis de comprendre les différentes phases des

tendances boursières en partant du constat que l‘évolution des cours boursiers ne s’effectue

Page 44: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

44

jamais de façon linéaire. En effet, une forte hausse ou une forte baisse ne peut durer

éternellement et est fréquemment interrompue par des phases correctives. SCHABACKER

étudie en profondeur les oscillations des cours et constate que les meilleures opportunités de

marché sont celles correspondant à l’identification des points d’entrée sur le marché les

moins risqués qui suivent la trajectoire de la tendance dominante.

J. Welles WILDER

WILDER est l’un des premiers à avoir développé et incorporé des méthodes

mathématiques dans l’analyse technique. En effet, à partir des mathématiques, il a su

développé ainsi de redoutables indicateurs graphiques qui sont aujourd’hui utilisés par

l’ensemble de la communauté financière. En reprenant certaines théories physiciennes, il met

ainsi en évidence le fait qu’une tendance qu’elle soit haussière ou baissière s’essouffle au fur

met à mesure de sa progression avant d’attendre son sommet en phase haussière ou le creux

en phase baissière. De ce fait, il émane que les fluctuations boursières peuvent être anticipées

par de puissants indicateurs graphiques dont leur efficacité réside sur la manière de prendre la

température du marché et de déterminer ainsi si la tendance en cours est saine ou est en train

de s’essouffler. Cette approche va apporter une réelle information sur le marché ambiant et va

permettre à l’analyse technique de s’émanciper à grande échelle dans le monde financier

grâce à la réelle efficacité de ces indicateurs techniques.

Les principes de l’analyse technique

L’analyse technique est une boite à outils pour laquelle l’ensemble des configurations

techniques représentés par les graphiques se reportent essentiellement à la dimension

psychologique des intervenants de marché ainsi qu’à plusieurs principes fondamentaux.

John MURPHY dans son ouvrage, « L’analyse technique dans les marchés financier »

paru le premier janvier 2004, parle des différents fondements de l’analyse technique.

D’après son étude, il en dégage certains principes primordiaux qui sont très parlant :

L’analyse technique se base sur les faits et non sur ce qu’il parait ou aurait du

paraitre. Cette méthode se réfère essentiellement au marché et non sur les phénomènes

Page 45: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

45

exogènes qu’il l’influence ou qu’ils peuvent l’influencer. En effet, cette approche étudie les

fluctuations boursières et non les raisons de ces fluctuations.

L’analyse technique étudie clairement la psychologie des intervenants de

marché et ne se réfère à aucunes sources d’ordre fondamental. De ce fait, ce n’est pas la

publication d’une information qui va être étudiée mais au contraire la réaction des

intervenants de marché face à cette dernière.

L’analyse technique contredit la théorie des néo-classique sur le fait qu’il

existe bien des variations de cours qui peuvent durer plus ou moins longtemps entre la valeur

boursière et la valeur fondamentale.

L’analyse technique estime que la valeur boursière d’un actif financier dépend

essentiellement de la loi de l’offre et la demande. En effet, la valeur boursière se définit par la

rencontre entre la force acheteuse de l’actif et de la force vendeuse. Néanmoins la valeur

boursière n’est pas à l’abri de certains facteurs irrationnels qui émanent la loi de l’offre et e la

demande.

En résumé, l’analyse technique permet de comprendre comment se comporte le

marché. On peut dire ainsi que le marché regroupe l’ensemble de ces comportements que l’on

vient de citer ainsi que, de la différence d’interprétation des intervenants de marché.

L’analyse fondamentale est un déterminant du prix d’un actif financier parmi d’autres

facteurs et ne peut expliquer à elle seule la variation de prix et ce dans une durée plus ou

moins longue. L’analyse technique détermine des tendances boursières qui peuvent fluctuer à

la hausse et à la baisse et ce qu’en raison d’un changement de consensus dominant de marché

provoqué par le rapport de force acheteurs versus vendeurs. Les outils graphiques de l’analyse

technique permettent d’identifier clairement les tendances boursières. La cyclicité du marché

financier peut être assimilée aux comportements de la nature humaine. De ce fait, il n’est rare

de retrouver certains comportements qui se répètent sur des espaces temps différents car les

émotions humaines sont immuables. Il n’est pas vain de noter que certains comportements

d’euphorie sont suivis par des comportements de panique. En outre, l’analyse technique se

concentre sur les émotions des intervenants de marché et essaye de capter la réaction de ces

derniers face aux publications officielles et ou officieuse.

Page 46: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

46

Loi de l’offre et de la demande

En reprenant la fameuse citation de Napoléon BONAPARTE, « Un schéma vaut

mieux qu’un long discours », on peut dire que les outils graphiques de l’analyse technique

sont la clé de réussite de cette dernière qui trouve, dans ces représentations, toute la crédibilité

qu’on lui doit. Ces graphes prennent sources grâce à l’historisation dans le temps de la

rencontre entre acheteurs et vendeurs, qui sont pour l’analyse technique, la source de base des

fluctuations boursières. En effet, si le cours d’un actif financier progresse à la hausse, on dira

que se sont les acheteurs qui ont pris le dessus face aux vendeurs. Inversement, si le cours

évolue à la baisse, on dira que se sont les vendeurs qui sont supérieurs aux acheteurs.

L’analyse technique et l’analyse fondamentale convergent dans le même sens.

Néanmoins, leurs points de vue divergent quand à la détermination du cours boursier. Pour les

fondamentalistes, les opérateurs de marché sont rationnels et par ce fait, se positionne sur le

marché uniquement à partir de la valeur fondamentale de l’actif financier.

A la différence, les défenseurs de l’analyse technique ne réfutent pas la notion de la

valeur fondamentale en soi mais explique qu’il peut exister un décalage plus ou moins

important du cours avant que le prix converge vers sa valeur fondamentale.

L’analyse technique se concentre essentiellement sur le rapport de force qui se réfère à

la loi de l’offre et de la demande et essaye d’en capter ces variations. On peut très bien dire

que l’analyse technique cherche simplement à savoir qui des haussiers ou des baissiers va

rempoter le rapport de force.

L’analyse technique trouve sa crédibilité aussi par l’appuie de la théorie des

conventions. En effet, cette dernière démontre qu’il n’en n’est rien irrationnel d’incorporer

dans son diagnostique des facteurs qui n’ont aucun lien avec l’analyse fondamentale. Pour

eux, les cours évoluent selon des tendances, dont la durée peut être courte ou très longue et

ceux, en raison de l’existence d’une convention. Le changement de tendance peut s’expliquer

de deux façons :

Une convention peut être amenée à disparaitre si la communauté financière ne

la soutienne plus.

L’effet de massue qui porte bien son nom. En effet, lorsqu’un actif financier est

soutenu par l’ensemble des intervenants de marché, il n’y a plus de force pour maintenir la

Page 47: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

47

tendance haussière et de ce fait, la moindre publication négative déclenchera une vente

massive de l’actif financier et ceux, à cause de la panique des intervenants de marché.

Les fluctuations boursières peuvent être donc anticipées du fait que les intervenants de

marché commentent systématiquement les mêmes erreurs et par conséquent, réagissent de

manière irrationnelle contre leur gré.

La finance comportementale appuie les hypothèses de l’analyse technique

Pour les partisans de l’analyse technique, la fiabilité des configurations graphiques est

déterminée par l’existence de comportements récurrents des intervenants de marché. Ces

comportements sont déterminés par l’approche comportementaliste de manière plus

approfondie. Les tenants de l’analyse comportementaliste confirment l’existence de biais

psychologique et contredisent ainsi l’hypothèse de rationalité des intervenants de marché

revendiqué par les néo-classiques. En effet, les biais psychologiques influencent l’individu à

tel point que ces biais lui sont difficiles à maitriser. L’analyse comportementale converge

dans le même sens que l’analyse technique, sur la possibilité d’un comportement irrationnelle

d’un individu, pour lequel les biais psychologiques ont un impact sur ce dernier.

Les biais cognitifs donnent une explication cohérente sur le comportement volatil des

marchés. Ce n’est pas étonnant de constater que certain opérateurs de marché, ayant une

méthode d’analyse béton, ne gagnent pas forcément à tout les coups. C’est pourquoi les

analystes techniques s’intéressent principalement à la dimension psychologique des

intervenants de marché. D’après eux, l’analyse technique est une méthode efficace en raison

de la présence de comportements récurrents sur les marchés financiers. Son efficacité

résiderait donc au niveau de la psychologie des intervenants de marché pour laquelle les

configurations graphiques sont en mesure d’identifier clairement la récurrence des

comportements de ces opérateurs. Il va s’en dire, qu’il existe bien un lien entre l’analyse

technique et l’analyse comportementale.

Page 48: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

48

II – 2 Les forces et faiblesses de l’analyse technique dans la détermination

des tendances.

2.1 Les forces de l’analyse technique

Il est difficile pour de nombreux intervenants institutionnels d’admettre l’usage de

l’analyse technique, car ils redoutent qu’on leur reproche un comportement peu professionnel.

Cependant, nous estimons qu’il s’agit surement de la méthode la plus compétente pour étudier

les marchés financiers et pour définir les tendances boursières. L’analyse fondamentale

participe à une valorisation des actifs financiers, toutefois elle néglige totalement l’aspect

psychologique de la variation des cours boursières. L’analyse technique est un instrument

indispensable. Cette technique essaye d’appréhender la psychologie dominante d’un marché à

l’instant t, et se veut cohérente. L’analyse technique est pragmatique et censé aux yeux des

conventionnistes, d’après lesquels, les intervenants de marché vont se décider en priorité par

rapport au consensus dominant. De plus, les intervenants de marché estiment que l’élément

essentiel sur les marchés financiers, est de toute évidence, la dimension psychologique

collective et individuelle.

Les supports et les résistances

Les support et résistances sont des signaux issus de l’analyse graphique. Les supports

peuvent être définis par le fait où les acheteurs veulent renverser la tendance baissière et les

résistances, par le fait où les vendeurs veulent renverser la tendance haussière.

A l’aide de ces signaux, il devient ainsi possible d’anticiper les variations de cours

d’un actif financier à court terme. Dès lors, il devient possible d’émettre des prévisions à court

terme sur des divergences de tendances boursières grâce à la présence de ces signaux

récurrents. Les supports et résistances sont des niveaux où les rapports de forces entre

acheteurs et vendeurs montent en puissance et le vainqueur entrainera un fort retournement de

marché. Lorsqu’il ya cassure d’un support ou d’une résistance on qualifie ce terme de

breakout.

Cet outil permet donc à l’analyse technique de dire qu’il existe des phénomènes

récurrents à court terme pour lesquels, elle est en mesure de les identifier et de les anticiper.

Page 49: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

49

L’analyse technique permet donc de prévoir à court terme certain comportements

récurrents qui explique le décalage d’un actif financier de sa valeur fondamentale.

Néanmoins, cette dernière reprend son droit à long terme.

Les principaux facteurs de l’efficacité de l’analyse technique

Plusieurs éléments permettent de comprendre la réussite et la robustesse de l’analyse

technique, en voici les principales raisons :

La récurrence des comportements de chaque individu pourrait être aperçue sur

les graphiques boursiers et caractériserait ainsi l’élément qui exprime l’efficacité de cette

technique.

L’analyse technique ne devrait son efficacité qu’en ayant recours à la théorie

des phénomènes des prophéties autoréalisatrices.

Son efficacité serait liée à une combinaison de ces deux composantes.

L’hypothèse des prophéties autoréalisatrices supposent un suivi primordial de

l’analyse technique de certains investisseurs. Alors, l’efficacité de l’analyse technique se

définie par cette effet moutonnier des intervenants. Le biais d’ancrage, mise en avant par la

finance comportementale, apporte aussi une réponse venant améliorer l’hypothèse des

prophéties autoréalisatrices.

Les limites de la théorie de l’efficience des marchés

D’après plusieurs études menées en laboratoires, il se pourrait que la théorie de

l’efficience des marchés financiers ne soit pas fondée et qu’elle néglige l’aspect

comportemental des individus. Il en ressort que lors d’une expérience en laboratoire, des

individus radicalement rationnels, peuvent agir de manière irrationnelle même en ayant reçu

que des informations d’ordre fondamental sur la valeur de l’actif financier étudié. Dans la

logique fondamentaliste, le cours bousier ne doit pas dévier de sa valeur fondamentale.

Néanmoins, l’étude démontre que les individus vont vouloir obtenir l’actif à tout prix et par

conséquent, faire monter le prix de l’actif financier jusqu’à provoquer une bulle spéculative

boursière. Fort de constater un prix excessivement surévalué, les individus vont vouloir se

débarrasser de la valeur et vont provoquer un effet de massue que l’on peut assimiler à un

Page 50: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

50

krach boursier. On constate donc grâce à cette expérience, que même des individus ayant les

mêmes informations d’ordre fondamental, peuvent tout de même être à l’origine de bulles

spéculatives boursières et de krach boursier. Cette étude démontre que la psychologie des

individus joue un rôle important dans la formation des cours boursiers et que l’on peut

remettre en cause la théorie de l’efficience des marchés mise en avant par les

fondamentalistes. Cette expérience est un argument qui vient renforcer l’approche de

l’analyse technique sur le fait, que le plus important, dans la détermination de cours d’un actif

financier, n’est pas de connaitre la valeur fondamentale mais au contraire de savoir comment

les autres opérateurs de marché la perçoivent comme vraie. Le comportement récurrent des

opérateurs de marché explique en partie l’efficacité de l’analyse technique. Elle se base sur le

fait qu’il existe des biais psychologiques pour lesquels, elle est capable d’illustrés

graphiquement la récurrence de certain comportement. La dimension psychologique des

opérateurs de marché se trouve comme figée quelque soit l’espace temps et le type de

marché. On peut dire ainsi que les fluctuations boursières trouvent en partie leur explication à

cause des émotions des opérateurs de marché pour lesquelles, ils lui sont difficilement

maitrisables. L’analyse technique sert ainsi d’un outil de travail pour les intervenants de

marché pour qu’ils puissent mettre en place une stratégie de positionnement sur le marché

fiable et efficace.

L’existence de tendances boursières est appuyée par les conventionnistes.

L’école des conventions explique pourquoi certain intervenants de marché prennent

des positions d’achat ou de vente alors même que le cours d’un actif financier est sous évalué

ou sur évalué. Un individu rationnel ne devrait pas en temps normal se positionner aux

alentours de ces niveaux par contre d’après les conventionnistes, il est certainement rationnel

de prendre position quand on est quasiment certain que les autres opérateurs de marché vont

prendre la même position sur un actif financier. De ce fait, l’individu va émettre sa prévision

en se basant sur le consensus dominant et exclu de son raisonnement à court terme, toute

valeur fondamentale. Cette approche converge dans le même sens que celle apportée par

l’analyse technique sur le fait qu’il existe des tendances boursières sur les marchés

financiers et dont la durée peut être plus ou moins longue et pour lesquelles, elles ne sont pas

forcément expliquées par la seule analyse fondamentale. De plus, l’analyse technique ne tient

pas compte de la valeur fondamentale d’un actif financier car elle émet l’hypothèse que toute

Page 51: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

51

l’information disponible à un instant t doits se retrouver sur le cours de l’actif financier en

question. Cependant, l’existence de comportement récurrent sur les marchés financier serait

essentiellement due à des comportements humains qui se répètent au cours du temps.

L’analyse technique est donc un outil d’analyse cohérent et fiable qui se base sur des

phénomènes récurrents pour lesquelles l’analyse comportementale et la théorie des

conventions confirment ses principes de bases.

2.2 Les faiblesses de l’analyse technique

L’utilisation de l’analyse technique peut varier d’un individu à un autre

L’analyse technique est utilisée comme un outil permettant à ses utilisateurs de prévoir

les moments où un actif financier va s’écarter sans aucune raison de sa valeur fondamentale.

C’est pourquoi, les analystes financiers sont toujours sur le qui vive pour appréhender ces

décalages. L’ensemble des utilisateurs de l’analyse technique sont sur le même piédestal en

matière d’information en partant de l’hypothèse que toute l’information est comprise dans le

cours. En effet, ces derniers utilisent les graphiques qui reprennent l’historique des cours d’un

actif financier et donc la performance de chaque intervenant de marché résiderait sur

l’utilisation de cet outil dont les performances peuvent variées d’un individu à l’autre. C’est

pourquoi le fait de disposer de la même information par l’ensemble des individus ne les

protège en rien d’une différence d’interprétation de chacun d’entre eux. Cette dimension

psychologique renforce encore plus l’analyse technique dans son raisonnement et l’efficacité

de sa méthode d’analyse mais elle ne protège en rien ses utilisateurs de leurs propres erreurs

de discernement.

L’analyse technique a-t-elle des bases théoriques solides ?

L’analyse technique peut être remise en cause par le fait qu’elle serait peut être à

l’origine des décalages de cours d’un actif financier par rapport à sa valeur fondamentale.

Pour se faire, l’analyse comportementaliste a mis en évidence trois types d’opérateurs de

marché qui pourraient en être la cause :

Page 52: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

52

Les opérateurs incrédules, qui utilisent des méthodes d’analyse peu pertinentes,

sont submergés par leurs biais psychologiques.

Les opérateurs de marché qui établissent uniquement leur raisonnement qu’à

partir de données fondamentales en vendant des actifs surévalués et achetant des actifs sous-

évalués.

Les opérateurs de marché peu scrupuleux qui utilisent la faiblesse des individus

naïfs ou novices afin de prendre profit de leurs lacunes en manipulant le cours d’un actif

financier en fonction de leur stratégie.

D’après l’analyse comportementale, les utilisateurs de l’analyse technique sont des

individus naïfs qui se basent essentiellement sur des croyances et non sur un modèle

mathématique fiable. De ce fait, ces individus favorisent ainsi donc le développement de la

volatilité sur les marchés financiers car ils obstruent toutes opportunités d’arbitrages qui

corrigeraient de toute évidence les imperfections de marché. L’analyse technique serait donc

remise en cause par le comportement de ses utilisateurs.

Une méthode très critiquée

Le monde académique porte une approche critique sur l’analyse technique. En effet,

l’analyse technique serait la cause de comportements irrationnels des intervenants de marché.

On peut évoquer ainsi le phénomène de joueur de casino que l’on peut qualifier également

d’overtrading ou de suractivité spéculative. Ce phénomène se traduit par le comportement

d’un individu qui fait face à ces émotions lorsqu’il tente de récupérer le capital investit après

avoir subit une succession de pertes lors de ces prises de positions sur le marché. Dès lors, il

va essayer de rattraper ses pertes en prenant des positions risquées et ceux jusqu'à perdre tout

son investissement. Malgré tout, cet argument ne permet pas de remettre en question

l’efficacité de l’analyse technique. En effet, l’individu qui se base sur la valeur fondamentale

peu connaitre la même désillusion, en utilisant la méthode fondamentale qui consiste à acheter

un actif lors de publication positive et de vendre un actif post publication négative.

Pour la théorie de l’efficience des marchés, certaines irrégularités de marché peuvent

apparaitre à court terme mais ces irrégularités ne sont qu’éphémères par l’intervention des

arbitragistes qui vont corriger ce phénomène. Néanmoins, avec les nouvelles juridictions sur

les marchés financiers, la concurrence est de plus en plus rude et ces opportunités d’arbitrage

Page 53: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

53

sont de moins en moins présentes. De plus, l’utilisation massive de l’analyse technique

réduirait également ces opportunités d’arbitrage et provoquerait même des faux signaux par le

fait que certains utilisateurs aguerris profiteraient de la naïveté de certains utilisateurs de

l’analyse technique, pour se focaliser uniquement sur leur manque d’expérience.

Une efficacité menacée

L’efficacité de l’analyse technique serait essentiellement due à la présence de

prophéties autoréalisatrices. En effet, l’utilisation massive de l’analyse technique par la

communauté financière due en partie à la modernisation des outils informatiques, peut être à

l’origine d’une perte d’efficacité de cette boite à outils. Pour les néo classiques, certaines

poches d’inefficiences peuvent perdurer à court terme mais seront rapidement corrigées par

les intervenants de marché. Ainsi, l’utilisation massive de l’analyse technique peut conduire à

sa perte. En effet, cet effet de masse va restreindre les opportunités existantes voire les

estomper et son utilité de base sera rejetée par ces détracteurs par ce manque d’opportunité

qu’il était facilement repérable à l’aide des configurations graphiques. Il est important de

noter que la concurrence actuelle sur le marché est de plus en plus forte et de part ce fait, il

devient compliquer d’avoir un temps d’avance sur les autres opérateurs de marché surtout s’il

on se base sur des représentations graphiques connues de tous. L’approche de la théorie de

l’efficience des marchés met en évidence que l’utilisation de masse de l’analyse technique

n’est pas un avantage sur le long terme pour les opérateurs de marché qu’il l’utilise. La

spéculation se défini par le fait de prévoir une fluctuation de la tendance du marchés avant les

autres intervenants de marché. Dans le cas où l’ensemble des intervenants de marché se

positionnent tous au même moment pour acquérir un actif financier, l’évolution attendue de

cet actif sera en contradiction avec ces derniers par le simple fait qu’il n’y plus assez de force

pour accompagner le cours de l’actif en question vers le haut. De ce fait, la cassure d’un

support ou d’une résistance par quelques opérateurs de marché entraine des retournements

violents de tendance. Il n‘est pas rare de constater sur les marchés financiers actuels, la

présence de plus en plus de faux signaux qui induisent, la plupart des utilisateurs de l’analyse

technique, en erreur. Le problème provient du fait que certains opérateurs de marché se

focalisent essentiellement sur les émotions des autres opérateurs afin de profiter de leurs

faiblesses. De ce fait, ils provoquent la cassure d’un support ou d’une résistance uniquement

pour profiter de la panique des autres opérateurs sur ces niveaux psychologiques.

Page 54: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

54

L’analyse technique est-elle en perte d’efficacité aujourd’hui ?

On constate de plus en plus la présence de faux signaux sur les marchés financiers

actuels en raison d’une utilisation généralisée de l’analyse technique. Les modifications

d’ordre structurel des marchés financiers semblent avoir porté atteinte à l’efficacité de

l’analyse technique. Les intervenants de marchés avertis ont su s’adapter à ces modifications

en mettant en place des outils d’analyse plus approfondie et plus complets. La popularité de

l’analyse technique devient son tendon d’Achille. En effet, l’utilisation massive de l’analyse

technique par l’ensemble des intervenants de marché qui utilisent cette méthode, va engendrer

une bataille sur la prise de position sur le marché autour des meilleurs niveaux d’entrée.

D’autant plus, que certains intervenants de marché vont utiliser ce constat à profit en

provoquant de faux signaux techniques. Ces faux signaux techniques peuvent être interpréter

par des gaps haussier ou baissier lors de la séance d’ouverture du marché qui sont en phase

avec les signaux acheteurs ou vendeurs sur les configurations graphiques avant qu’un

retournement violent de marché se produise. Les modifications d’ordre structurel des

marchés financiers actuel peuvent être une des raisons de la baisse de la volatilité des

marchés. Cette baisse de volatilité peut être aussi interprétée comme étant l’un des facteurs de

perte d’efficacité de l’analyse technique. En effet, les marché évoluent de la même façon que

les prix fluctuent.

Ainsi, nous pouvons mettre en évidence plusieurs raisons qui peuvent expliquer la

baisse de l’efficacité de l’analyse technique à nos jours :

L’accès à l’information est de moins en moins couteuse en partie en présence

de la concurrence et de la modernisation des outils informatiques.

L’accès à un logiciel d’analyse technique s’est de plus en plus démocratisé et

est rendu accessible par tous. De plus, certaines entreprises proposent des prestations à titre

gracieux comme ProRealTime ainsi que des accès à un flux en temps réel à des prix très

compétitif voire même gratuit. Chose qui était inimaginable à la fin du XXème siècle.

La baisse des frais de courtages ont permis la multiplication des prises de

position des intervenants de marché. Le nombre importants d’intervenants de marché et de

leurs transactions influencent les marchés et sont à l’origine de l’extinction des poches

d’inefficiences à court terme. Certaines configurations graphiques qui étaient efficaces par le

passé ne le sont plus aujourd’hui.

Page 55: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

55

Le développement grandissant de l’internet et de son accès à haut débit ont

permis d’avoir un accès rapide de l’information et ceux, dans les quatre coins du monde. En

effet, les informations sont disponibles pratiquement au même moment pour les opérateurs de

marché dans les salles de marché que pour le simple particulier qui se trouve derrière son

ordinateur personnel. Chose inimaginable par le passée avant l’émergence de ces nouvelles

technologies.

L’efficacité de l’analyse technique semble avoir perdu de sa pertinence au début du

XXIème siècle. En effet, les outils de suivi de tendance de l’analyse technique semblaient

efficaces en vue d’un retour à l’équilibre du prix d’un actif financier vers sa valeur

fondamentale de façon plus ou moins lente. En effet, les tendances se justifiaient en raison des

différents risques assujettis aux arbitragistes. Ainsi, les nouvelles technologies ont permis

l’émergence d’un accès plus rapide à l’information et de l’utilisation généralisée des outils de

l’analyse technique par l’ensemble des intervenants de marché. L’avantage qu’avaient les

professionnels de la finance de marché semble être révolu par l’émergence de nouveaux

intervenants de marché, les particuliers, qui peuvent utiliser les mêmes outils qu’eux. On peut

donc en déduire que le changement d’ordre structurel des marchés financiers est la principale

cause de la baisse de l’efficacité de l’analyse technique. Il aurait ainsi deux impacts sur le

marché :

La baisse de la volatilité pendant les séances de marché.

Des variations de prix violents après la clôture des marchés représentées par la

présence de gaps haussiers ou baissiers.

On peut en conclure que les marchés financiers sont d’autant plus chaotiques

qu’auparavant et la durer d’une tendance boursière est de plus en plus courte. L’analyse

technique doit faire face à de plus en plus de faux signaux dont son efficacité d’analyse se

retrouve fortement impactée et donc diminuée.

Page 56: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

56

Les prophéties autoréalisatrices

Le phénomène des faux signaux à court terme devient de plus en plus fréquent de part

leur multiplication sur le marché. Les changements technologiques en sont la première cause.

La théorie de l’efficience de marché reprend son droit, dès lors que la volatilité du

marché est extrêmement faible et dont les poches d inefficience sont rapidement évincées par

les professionnels avertis. Le phénomène des prophéties autoréalisatrices ne permet pas de

valider l’efficacité de l’analyse technique à long terme. Néanmoins, certaines configurations

graphiques telles que les bougies japonaises, les supports et les résistances, permettent de

mettre en évidence des signaux pour lesquels ils sont bien plus utiles d’analyser et de les

utiliser à long terme qu’à court terme. L’analyse technique parait être plus pertinente à long

terme alors qu’elle n’est pas utilisée pour, lors des prises de décisions. En effet, elle est plus

utilisée à court terme car le phénomène des prophéties autoréalisatrices converge sur le même

espace temps. Cette approche peut être remise en cause car les faux signaux sont bien plus

présent à court terme qu’à long terme et réfute ainsi la théorie des prophéties autoréalisatrices

sur le fait qu’une méthode marche lorsqu’elle est suivie par la majorité des individus.

Pour que la théorie des prophéties autoréalisatrices soit valable, il serait nécessaire que

la majorité des intervenants de marché utilise l’analyse technique. Les différentes études

démontrent une réelle efficacité de l’analyse technique à court terme mais les prévisions de

cette dernière ne sont pas justifiées à long terme. Par contre, si des études arrivent à prouver

l’efficacité de l’analyse technique à long terme, alors on peut réfuter la théorie des prophéties

autoréalisatrices et dire que l’analyse technique est un outil indispensable pour un intervenant

de marché, dans la détection précise de la psychologie de l’ensemble des intervenants de

marché. De ce fait, l’analyse technique retrouverait ainsi toute sa crédibilité et solidité, par

l’existence de comportements récurrents des opérateurs de marché qui permettent ainsi la

présence de certaines poches d’inefficience à exploiter.

Les prophéties auto réalisatrices peuvent en partie expliquer le succès de l’analyse

technique, mais ce succès grandissant devrait provoquer son échec à terme car les anomalies

de marché existantes seront éliminées par la concurrence. Les tests utilisés pour critiquer

l’analyse technique sont naïfs, ce qui est assez étonnant pour une approche de la théorie de

l’efficience des marchés qui considère l’analyse technique comme un modèle naïf. La critique

se focalise sur la méthode mais pas sur la personne et néglige la dimension psychologique. En

effet, elle ne permet pas d’expliquer pourquoi certaines personnes gagnent régulièrement en

Page 57: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

57

utilisant l’analyse technique alors que d’autres personnes perdent en ayant recours aux mêmes

techniques. La maitrise de l’analyse technique semble insuffisante pour gagner, car

l’investisseur doit également jouer les probabilités et maitriser sa psychologie. Néanmoins, les

marchés ne sont pas efficients car les individus ne sont pas rationnels et provoquent des

décalages par rapport à la valeur fondamentale.

La théorie de l’efficience semble impuissante pour expliquer les tendances que l’on

retrouve fréquemment sur les marchés ainsi que certaines configurations récurrentes sur

lesquelles l’investisseur peut capitaliser. Elle néglige également la dimension humaine en

posant une hypothèse discutable selon laquelle tous les individus seraient parfaitement

rationnels. De plus, la concurrence est de plus en plus rude sur les marchés et les anomalies de

marché de plus en plus rares.

Paradoxalement, malgré cette forte concurrence, les tendances existent toujours sur les

marchés, ainsi que la présence de certaines figures graphiques. Les phases de consolidation

sont plus complexes et les opérateurs qui ne gèrent pas strictement le risque (stop-loss sous un

support ou sur une résistance) peuvent se faire sortir d’une position, alors même qu’ils avaient

bien anticipé le mouvement du sous-jacent.

Deux composantes jouent un rôle déterminant : les biais psychologiques récurrents des

investisseurs et les prophéties auto réalisatrices. Néanmoins, il reste des phénomènes

inexpliqués. La nature humaine est immuable. Les émotions ont toujours existé et existeront

toujours. Elles influencent de manière déterminante les cours boursiers, ce qui explique

l’existence de configurations graphiques récurrentes.

Page 58: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

58

CONCLUSION

La prédiction d’une tendance est capitale dans le cadre des marchés actions. Les

acteurs financiers agissant sur ces marchés, bien qu’ils aient des attentes distinctes les uns des

autres, espèrent l’appréciation ou la dépréciation d’un titre financier. Qu’ils interviennent pour

parier à la hausse ou à la baisse une action, pour valoriser un titre ou encore pour comprendre

l’évolution des marchés actions, ils cherchent tous à répondre à une même question. Même si

leurs raisons varient, tous, ont comme objectif la détermination d’une tendance, qu’elle soit

haussière, baissière ou encore neutre. L’identification d’une tendance boursière est un élément

incontournable que chacun prend en considération et cherche à déterminer.

Les deux analyses, fondamentales et techniques, ont apporté leurs visions, leurs

éléments pour répondre à la question ainsi posée jour après jour par tous les intervenants des

marchés actions sans exception : dans quelle tendance s’inscrit telle ou telle action cotée en

Bourse ? Les fondements de l’analyse fondamentale divergent de ceux de l’analyse technique

en de nombreux points. L’approche fondamentale s’impose tout d’abord comme absolument

différente de celle de l’analyse technique en ce qu’elle va chercher à identifier la valeur

intrinsèque de l’action évaluée et la comparer à sa valeur cotée. Une tendance haussière

correspond à une sous-évaluation de l’action évaluée qui va in fine se rapprocher de sa valeur

intrinsèque. L’évaluation initiale de la valeur intrinsèque s’initie dans l’économie dans

laquelle se situe l’entreprise cotée. L’analyse fondamentale détermine la valeur réelle d’une

action comme la jonction d’éléments économiques distincts, d’une part macro-économique et

d’autre part micro économique. L’analyse technique explique les tendances de marché comme

des variations dus principalement à des effets psychologiques, tant rationnels qu’irrationnels.

Elle explique les variations de cours par des mécanismes psychologiques, basés sur la nature

humaine.

On peut reconnaître à l’analyse fondamentale deux grandes forces. L’analyse

fondamentale va inscrire l’action dans une tendance générale, large avec une précision

reconnue dans le monde professionnel. Deuxièmement, elle va expliquer les raisons de ces

tendances en se basant sur des éléments réels.

On peut également reconnaître à l’analyse technique deux grandes forces.

Premièrement, l’analyse technique va inscrire l’action dans une tendance, et conforter la

Page 59: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

59

tendance indiquée par l’analyse fondamentale, mais sans pouvoir donner d’explication réelle

sur cette tendance. Deuxièmement, l’analyse technique va permettre d’indiquer une tendance

sur de petites amplitudes, là où l’analyse fondamentale, elle, ne saura se prononcer car elle ne

dispose pas d’éléments suffisamment fiable et précis.

Les deux analyses vont ainsi se compenser : la faiblesse principale de l’analyse

technique est de ne pas savoir donner d’explication sur l’origine réelle d’une tendance, elle ne

fait qu’appliquer des préceptes. L’analyse fondamentale va elle venir compenser cette

faiblesse en apportant des faits, des explications. Mais cette dernière ne saura se prononcer sur

des tendances trop courtes ou d’amplitudes trop faibles ; l’analyse technique viendra ici

soutenir sa sœur et combler sa faiblesse.

Il n’est ainsi pas nécessaire d’opposer systématiquement l’analyse fondamentale et

l’analyse technique, et ainsi perpétuer une guerre ancestrale. L’approche des deux analyses

devrait être vue comme complémentaire, car c’est dans cette complémentarité que naît une

meilleure justesse de l’analyse.

Page 60: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

60

FICHES DE LECTURE

Recherches sur la nature et les causes de la richesse des nations, Tome 1, Adam Smith.

Œuvre considérée comme texte inaugural de l’économie politique elle met en avant des

concepts économiques aujourd’hui encore valables et qui forment une des bases indirectes de

l’analyse fondamentale.

La crise économique de 1929 – Anatomie d’une catastrophe financière, John Kenneth

Galbraith

De par son ouvrage, Kenneth Galbraith décrypte la crise économique de 1929 qui marqua la

finance. Sa description des évènements, réalisée dans les années suivant la crise, offre une

vision large des causes et conséquences, qui, une fois confronté aux connaissances actuelles,

met en avant des bases de l’analyse fondamentale.

Economics, CFA level 1 Curriculum.

Ouvrage décrivant et expliquant les concepts de la microéconomie, de la macroéconomie et

des échanges internationaux. Bien que très accès mathématiques, il offre une vision claire des

mécanismes économiques sur lesquels se base l’analyse fondamentale.

Equity and Fixed Income, CFA level 1 Curriculum.

Ouvrage présentant des concepts de l’évaluation d’entreprises, que ce soit pour la partie fonds

propres que la partie dettes.

KAHNEMAN et TVERSKY en 1979 sur la théorie des perspectives aléatoires :

http://www.academia.edu/2576027/La_theorie_de_la_perspective_de_Kahneman_et_Tversky

_Prospect_Theory_1979_

La théorie de l’utilité espérée de NEUMANN et MORGENSTERN :

http://fr.wikipedia.org/wiki/Th%C3%A9orie_de_la_d%C3%A9cision

La théorie néo-classique :

http://fr.wikipedia.org/wiki/%C3%89cole_n%C3%A9oclassique

Page 61: Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

61

Concours de beauté KEYNES :

http://fr.wikipedia.org/wiki/Concours_de_beaut%C3%A9_de_Keynes

André ORLEANS :

http://mondesensibleetsciencessociales.e-monsite.com/pages/notes-de-lecture/notes-de-

lecture-en-economie/andre-orlean-le-pouvoir-de-la-finance-ed-odile-jacob-1999.html

Minehisa HOMMA

http://www.traders-forex.fr/munehisa-homma.php

Charles DOW

http://www.trading-school.eu/glossaire-bourse/fiche-Principes-de-la-Theorie-de-DOW-69

Ralph Nelson ELLIOT

http://www.edubourse.com/guide-bourse/vagues-d-elliott.php

William Delbert GANN

http://www.traders-forex.fr/William-Delbert-Gann.php

Nombre d’or FIBONACCI

http://www.futura-sciences.com/fr/doc/t/mathematiques/d/larithmetique-et-les-

plantes_63/c3/221/p3/

Richard W. SCHABAKER

http://www.boursetrading.info/Richard-W-Schabacker-l-eminent-penseur-de-l-analyse-

technique_a12168.html

Welles WILDER

http://fr.wikipedia.org/wiki/Relative_strength_index

Carol OSLER

http://www.agefi.fr/articles/imprimer.aspx?id=1066792&fil_info=0