samedi 22 juillet 2017

Lien : Est-ce que les foncières sont elle réellement diversifiées par rapport aux actions et obligations ?


Larry Swedroe
Un auteur que j'aime beaucoup, en dehors de Meb Faber, est Larry Swedroe. Je trouve que ses articles sont toujours passionnants et très bien documentés.

Le dernier article en date appelé "REIT aren't special" ne déroge pas  la règle.

Il répond à la négative à la question:  Est-ce que les foncières cotées ou SCPI (REIT aux Etats-Unis) sont réellement indépendante des marchés actions et obligation ? Bonne Lecture!

dimanche 9 juillet 2017

Mon portefeuille PEA et PEA-PME

Salle de marché

Mon portefeuille PEA et PEA-PME



Je n'ai pas par contre parlé de mes portefeuilles de Small Caps françaises basé sur des screens value ( Piotroski score, Greenblatt score, Allen EM, Altman ratio...). Il s'agit d'un portefeuille récent, que je reconstruit après l'avoir vidé pour cause d'achat immobilier.

Je m'étendrai un autre jour sur ma méthodologie de sélection de titre. Aujourd'hui je donne juste la composition de mon portefeuille.

Je ne fais de toute façon pas beaucoup de changement sur sa composition donc sa mise à jour sur ce blog devrait être peu fréquente:
Portefeuillle PEA-PME
J'ai vendu récemment Manitou et Keyyo.

samedi 8 juillet 2017

Ralentissement passager ou crise prolongée ?

marché action
Lors de mes précédent articles, intitulés
Quand doit on commencer à se préparer pour la prochaine crise ? et Quand viendra la prochaine crise ?,  j'avais envisagé des scenarios ou les marchés actions subissaient un revers. Depuis le CAC 40, a subi une baisse de 5.6% entre son plus haut récent de 5431 points et son niveau actuel à 5145 points, tandis que le MSCI world perdait 3.3% (valeur en euro) porté encore et toujours par le marché américain.

Paradoxalement, cette correction est causée par une amélioration de l'économie: plus l'économie réelle va bien, plus les banques centrales resserrent leur politique de quantitative easing, refroidissant les ardeurs des acteurs de marché. Les taux américains sont attendus en hausse en direction de 3%, en contredisant peut-être ceux qui attendaient que les taux ne montent ne montent que progressivement.

On parle de "normalisation" des politiques de banques centrales, vers un arrêt définitif des politiques d'achat de titres et une réduction du bilan des banques centrales.

Les investisseurs sont pris dans un étau: Les taux montent, donc les prix du marché obligataire baissent, les détenteurs de dettes long terme sont défavorisés, mais les émissions de titres et les prêts aux particuliers deviennent plus attrayants. Parallèlement, la croissance repart, le chômage baisse, la consommation augmente, les entreprises génèrent plus de chiffre d'affaire, et le rendement de dividende des titres actions augmentent.

Si la dette est plus chère, les entreprises vont avoir recours au marché action pour lever des capitaux, diluant les valorisations de titres. Mais si l'inflation reprend, les titres obligataires verront leur rendements réels passer sous ceux des marchés actons.

On voit bien que pour dérailler cette dynamique, il suffit que la tendance sur l'économie réelle fasse une petite pause, et les marchés taux vont phagocyter les marchés actions.

Comme les actions sont actuellement très chères (surtout sur le marché américain), on voit les forces compressives qui se profilent pour les marchés pour l'été. Quand au risque géopolitique, disons que les marchés ont pour l'instant appris à les ignorer.

Rien de trop inquiétant pour l'instant. Je vais juste entamer un petite phase d'accumulation de liquidités en attendant que tout cela se tasse. J'aurais des munitions à envoyer à la rentrée ou pour Noël. Nul doute que de nombreux intervenant feront de même, la fin de l'été sera peut-être intéressante.











samedi 17 juin 2017

lien: Guide JP Morgan pour le Big Data et le Machine Learning

Juste un petit lien vers un document de JP Morgan, qui se lit comme un guide sur le Machine Learning  et le big data: ICI (attention gros document!!)

samedi 10 juin 2017

Quand doit on commencer à se préparer pour la prochaine crise ?

Dans le précédent article, j'avais évoqué l’imminence probable d'un retournement de marché dans les années à venir.
Entre temps, rien à signaler, rien n'a vraiment bougé et pourtant on ne peut pas non plus vraiment dire que tous les voyants économiques soient passés au vert ou que le risque géopolitique ait disparu.

Pour autant, doit-on sortir progressivement du marché à l'approche de potentielles baisses ?

Dans la littérature, déterminer les points hauts et les points bas du marché s'appelle le market timing. Et le problème c'est que cette pratique est théoriquement impossible. 

D'abord La théorie de l’efficience des marchés nie la possibilité d'avoir accès à des informations privilégiées qui permettraient de prédire les marchés. Les prix des actifs sont des processus stochastiques donc imprévisibles.

D'autres raisonnements statistiques rejettent cette hypothèse par ce que sortir du marché réduit le nombre de jours activement investis ce qui empêche de bénéficier des meilleurs jours des marchés:
Do investors obtain their long term returns smoothly and steadily over time, or is their long term performance largely determined by the return of just a few outliers? How likely are investors to successfully predict the best days to be in and out of the market? The evidence from 15 international equity markets and over 160,000 daily returns indicates that a few outliers have a massive impact on long term performance. On average across all 15 markets, missing the best 10 days resulted in portfolios 50.8% less valuable than a passive investment; and avoiding the worst 10 days resulted in portfolios 150.4% more valuable than a passive investment. Given that 10 days represent less than 0.1% of the days considered in the average market, the odds against successful market timing are staggering.
Un argument vivement rejeté par d'autres auteurs, qui arguent du fait que les fameux 10 jours les plus positifs et 10 jours les plus négatifs surviennent aux même moments qui correspondent aux crises du marché, un argument qui est appelé volatility clustering an anglais.

Suivant cet argument, les investisseurs prudents devraient sortir des marchés à l'approche des pics de volatilité, ce qui peut sembler paradoxal vu que les jauges de volatilité sont actuellement au plus bas.

En fait, l’investisseur se voit offrir deux choix, sortir avant que la volatilité ne soit trop haute, ou entrer directement après qu'un pic de volatilité ait été réalisé.

Une des façon de prendre le large avant que la volatilité ne prenne le dessus, c'est de s'astreindre à une stricte discipline de Trend Following. Ce qui sera  le sujet de mon prochain post.



lundi 5 juin 2017

Quand viendra la prochaine crise ?


Pas de crise majeure depuis 2008

Les années 2000-2010 ont été frappées par deux crises majeures en 2001 et en 2008 qui ont vu s'effondrer les valorisations boursières sur tous les continents. Si la période 2010-2020 se termine sans un même effondrement, on aura vécu des rares décennies vierge de toute crise majeure (rappelons 1973,1987,1997,2001,2008).

Bien sur, au niveau européen, nous avons vécu la crise de la dette souveraine à l'été 2011, mais en ce mois de juin 2017, toute la crainte liés à ces événements s'est vaporisée sans laisser de trace.

Contrairement à la décennie précédente, il est vrai que nous n'avons semble-t-il pas vécu de période d'euphorie qui sont souvent annonciatrices de complications à venir. Cette phase de croissance de 2009 à 2017 s'est réalisé dans un pessimisme diffus. Pas exubérance des marchés donc.

Pourtant, voir cette décennie se clore sur une phase de hausse continue serait inhabituel et surprenant alors que de plus en plus d'éléments pointent vers un retournement de marché selon les normes historiques.

dimanche 4 juin 2017

Lien: Data Machina une des meilleures sources d'informationn sur le machine learning

Data Machina Machine learning
Juste un petit lien pour porter à votre connaissance, une liste de diffusion hebdomadaire dédiée au machine learning qui propose des articles intéressants sur plain d'aspects. Il s'agit de Data Machina.

samedi 3 juin 2017

Comparaison du taux d'impot sur le revenu entre la france et l'allemagne

Comparaison de l'imposition en France et en Allemagne

L'autre jour, je regardais le JT de Pujadas sur France 2, et le journaliste François Lenglet (ou peut-être Laurent Desbonnet ?) parlait des taux d’imposition sur le revenu en France et en Allemagne. Selon lui, les taux d'imposition en Allemagne n'était pas plus élevés en France qu'en Allemagne, mais selon son analyse, les contribuables allemands étaient sollicités à des niveaux de revenus plus bas, c'est à dire que le seuil d'imposition était plus bas en Allemagne.
En citant l'article plus haut:
Si on ajoute à cela, la CSG et la CRDS qui sont prélevés directement sur toutes nos fiches de paie. On arrive à 8,8%", indique le journaliste. Ce qui est un peu plus élevé qu'au Royaume-Uni (8,7%), mais c'est moins qu'en Allemagne (8,9%) ou en Belgique (12,!%). Dans ces pays, l'impôt sur le revenu pèse donc plus lourd sur les contribuables.

Cette conclusion m'avait frappée à l'époque, car je n'avais pas rafraichi ma mémoire sur ce sujet, et dans mon esprit l’impôt en France était beaucoup plus élevé qu'en Allemagne à cause de notre couverture sociale.

Le barème progressif de l'impôt


Le raisonnement de ces journalistes se base sur la comparaison des barèmes d'imposition directe entre la France et l’Allemagne.
Bareme d'imposition france allemagne
Comme on peut le voir dans le graphe ci-dessus, si on se réfère uniquement aux barèmes, l'imposition démarre plus tôt en Allemagne à 7664 euros contre 9710 euros en France. Et effectivement, à partir de 150 000 euros de revenus, le taux d'imposition de 45% est le même dans les deux pays, ce qui pourrait laisser penser que le poids d'imposition est le même pour les deux pays pour les hauts revenus pour le moins.

Il y a plusieurs raisons pour lesquelles ce raisonnement est incomplet. Tout 'abord, tous les abattements familiaux et niches fiscales sont très différente dans les deux pays. Ensuite, il y a d'autres prélèvements que l’impôt sur le revenu qui doivent être comptabilisés dans l’impôt total, notamment indirects (TVA), mais pas seulement (ISF, taxe fonciere, habitation...). Dans certains cas, on paiera plus d'impôt en France, dans d'autres cas, plus en Allemagne.

Pour mieux voir le poids des impôts, plutôt que de regarder le barèmes qui en soit ne donnent qu'une partie du problème, Il vaut mieux regarder une métrique pus globale, à savoir la collecte totale d'impôt rapportée aux PIB national.

Ces chiffres sont disponibles et calculés régulièrement, la commission européenne offre tous les ans un rapport à ce sujet.

Imposition allemagne France
On a une différente image de l'imposition en France pour le coup ! La France a une imposition totale à 45% du PIB pour seulement 37% pour l’Allemagne. Globalement, l'imposition de la France n'est dépassée dans l'UE que par celle du Danemark....

Comment expliquer qu'alors que l’impôt sur le revenu semble presque le même entre les deux pays, il y ait une telle différence entre les deux taux globaux d'imposition ? En fait, l'impôt sur le revenu ne constitue qu'une petite partie des contributions directes, en effet, en citant le rapport:
In most Member States, social contributions account for a much greater share of labour taxes than the personal income tax.
On voit que l'imposition sur le revenu ne constitue que la part congrue de l'imposition sur le travail:

Part de l'impot sur le revenu dans l'impôt global sur le travail
Ce sont bien les charges patronales qui pèsent le plus lourd sur la collecte d'impôt sur le travail.

Autre point de différence, les taxes sur la propriété (Taxe Foncière, ISF, plus-value immobilières, droits de succession) qui en France est bien plus punitive qu'en Allemagne:

taxe sur la propriété France Allemagne
Donc, par rapport à la France, L’Allemagne offre des charges patronales et un impôt sur la propriété considérablement réduit. Quand à la collecte supérieure de la France, a quoi est-elle utilisée ?

utilisation Impot
La réponse bien sûr est que a collecte d'impôt bien supérieure en France est utilise à des fins sociales: Sécurité sociale et pensions et retraites.





samedi 27 mai 2017

Lien: Siraj Raval Activation function

Juste un petit lien: La dernière vidéo de Siraj Raval. Encore une fois une vidéo claire et très intelligemment faite.

jeudi 25 mai 2017

Diversifier ver les small-caps

Actions Small Caps

Victime de la mode: Pourquoi les particuliers sont toujours attirés par les Méga Caps

J'ai remarqué depuis longtemps que les particuliers, lorsqu'ils prennent position sur le marché action, ont tendance à privilégier les titres qui sont liés à une marque ou une image publique.
La grande puissance des marques et des grands groupes tient au fait qu'il sont familiers et rassurants pour le grand public, ce qui attire aussi les investisseurs.

Par exemple, quand une entreprise américaine achète du temps d'antenne lors du Super Bowl, le titre de cette entreprise profite d'un effet positif qui se poursuit jusqu’à 20 jours après la diffusion du stock publicitaire.

Si vous faisiez un sondage dans votre entourage sur les entreprises les plus à même de survivre et prospérer à l'avenir, vous recevriez toute une liste de grosses entreprises bien connue du grand public, Danone, Société Générale, bnp paribas....

Pourtant, les plus grandes entreprises n'ont jamais apporté un avantage pour l'investissement dans le marché action, au contraire, on sait depuis des années que les petites entreprises ont en moyenne un avantage sur les méga-caps sur le long-terme. Les travaux séminaux sur ce sujet ont rapporté en 2013 un prix Nobel aux chercheur Eugene Fama, auteur avec Kenneth French, d'un modèle à 3 facteurs
qui distingue un facteur SMB (Small Minus Big)

Bien sur, cette attractivité doit être contre balancée par d'autres considérations. D'abord, sélectionner des Micro Caps nécessite un investissement en recherche et analyse substantiel qui n'est pas à la portée de tout les investisseurs. Ensuite, les plus grands rendements des petites capitalisations doivent être vus comme une compensation de risques financiers plus importants (faillite, concurrence, mauvaise gestion...)

Pour illustrer cette assertion, comparons le rendement de l'indice des plus grosse capitalisations française le CAC 40 et un indice de capitalisation plus vaste, contenant des valeurs plus petite, le CAC All Tradable (ex SBF 250). Sur 20 ans, le CAC 40 a subi une hausse de 106.3 %, tandis que sur la même période, le CAC 40 All Tradable lui gagnait 142,5%.

CAC 40 All Tradable (SBF 250) vs CAC 40

 

samedi 20 mai 2017

Impact de Trump sur les marchés actions

Trump stupide

Encore Trop tôt pour parler d'impeachment

La nomination de Robert S. Mueller III au poste de procureur spécial (special counsel) est loin de marquer la fin de l'administration Trump à la maison blanche.

Le président des États-Unis dispose d'une immunité de fait contre toute procédure judiciaire. Si le procureur spécial vient à recommander que des charges soient retenues contre le président,  ceci ne garantit pas a destitution. En effet, l'impeachment est un processus politique et non criminel. Pour amener une destitution en faveur du vice président, il faut une majorité au congrès, et une super-majorité au sénat (2/3 des 100 sénateurs).

Pour obtenir ce consensus politique qui outrepasse les camps partisans actuellement en place, il faudra que le procureur spécial construise un dossier d'accusation solide, ce qui vu l'étendue de la conspiration prendra plusieurs mois, voir plusieurs années. Et encore, même si les charges sont très lourdes et incriminantes pour Trump, il ne faut pas s'attendre à ce que les congressistes républicains  s'opposent au président avant que sa popularité auprès des voteurs républicains n'aie considérablement diminuée.

Les conséquences d'une enquête longue et difficile


probabilité destitution donald trump

D’après les dernières nouvelles,  l'enquête du procureur spécial devrait pouvoir émettre ses premières assignation à comparer (subpoena en latin: terme légal en usage aux USA) dans les jours à venir, et ce de manière répétée pendant une longue période, ce qui devrait entretenir encore plus l'incertitude politique qui pèse sur les États-Unis actuellement.

Alors que l'acte de destitution en lui-même est sujet à des interprétations vastement divergentes  suivant le point de vue (nous y viendront...), l'incertitude a toujours coïncide avec des performances sub-optimale pour les marchés action. Cette approche liant le risque politique et la performance des marchés actions a longtemps été promue par l’économiste et prix Nobel Robert Shiller. Sur cette base de nombreux index de l'incertitude politique ont été construits. A terme, une hausse des indices d'incertitude politique est associée à une baisse des niveaux des indices actions.

Sur le court et moyen terme  donc, rien de bien folichon à attendre du marché US. Qu'en est-il de l'impact de la destitution le jour ou elle survient ? 

Tout d'abord, comme pointé assez correctement par cet article de Time Magazine, il est impossible de tirer un parallèle entre le contexte du scandale Russe et le Watergate, le contexte économique est complétement différent, et notre façon de réagir à un monde qui évolue aussi.


Ne jouez pas à la roulette russe...


De toute façon, faire un pari sur l’évolution politique de cette crise constitutionnelle, c'est jeter les dés et attendre le résultat. A moins de disposer d'informations confidentielles, c'est un exercice qui est l'opposé de celui que doivent mener tous les investisseurs lorsqu'il doivent faire leur choix d'allocation.

Je recommanderai pour ma part à tous ceux qui ont construit leur portefeuille pour inclure une part substantielle d'actions américaines de se reporter sur des actions européennes ou même sur des obligations. (note: cet article de Bloomberg ne modifie pas pour l'instant mon analyse)

Trump est la plus mauvaise chose qui nous soit arrivé depuis le Brexit. On peut espérer que sa destitution permette d’effacer tout le mal qu'a causé cet individu, mais par précaution il vaut mieux se préparer au pire.








samedi 6 mai 2017

Lien : Are humans too cognitively limited to be effective citizens in the modern world?

 https://aeon.co/essays/the-complexity-of-social-problems-is-outsmarting-the-human-brain


https://aeon.co/conversations/are-humans-too-cognitively-limited-to-be-effective-citizens-in-the-modern-world

MacronLeaks: Une stratégie contre-productive ?

Flux de conscience sans forme ni structure:
Poutine MacronLeaks
A l'heure ou je vous parle, tous les réseaux souverainistes de droite se réjouissent de l'intervention d'un pays étranger dans le paysage politique Français.

C'est mesurer la confusion ambiante, que de s'étonner de voir l'influence de l’Allemagne tellement critiquée alors même que la Russie et l’Amérique alt-right se voient plébiscitée.

Fake news et отдел агитации и пропаганды avance main dans la main, bouche à bouche, indissociables. Drôle de ligne de front....

Trump poutine le pen

Comment résister à la propagande ?

Pourtant la campagne de désinformation mondiale à laquelle nous assistons aujourd'hui, peut paradoxalement être vue comme un signe d'impuissance. Ces documents  ne convainquent que seuls qui veulent y croire, personne n'en ignore la source et l'intention.

Quand #MLP, propage la rumeur des comptes offshore, dans la seconde qui suit personne n'en ignore la source, et ceux qui la diffusent eux-même n'y croient pas. Ils cherchent en vain sur le marché de la crédulité des preneurs, amis personne n'en est à ce point là. Quant personne ne croit à une rumeur pa même ceux qui la propagent, on est plus dans le rituel et la croyance magique et moins dans l'action politique. En fait, on se réconforte les uns les autres au sein de gens qui nous ressemblent et les coups n'arrivent pas à percer les ligne de front.

On me pointera la victoire de Trump comme illustration du succès de ces campagnes. Mais alors même qu'une élection était renversée, on est revenu au point de départ. Les croyances se répartissent suivant les lignes de clivage politique. Ou sont les démocrates trompés
colonnes: (Total, Rep, Dem, Ind)
Sondage trump russie
Ce que je veux dire, c'est que les seuls convaincues par ces fake news, sont ceux qui sont déjà convaincus.

Qui se sent menacé ?


Effet paradoxal, dans la mondialisation, tout le monde se sent menacé. Uniformément, tout le monde craint que son mode de vie, ses traditions doivent disparaître.

En Turquie, le mode de vie et les traditions musulmanes des classes rurales se sent menacé par le mode de vie occidental, par la liberté sexuelle, par l'homosexualité par le christianisme. En Europe, la liberté de mœurs, la laïcité, la tradition chrétienne se sent menacée par le spectre de l'expansion des valeurs de l'islam. Les deux peurs se regardent en mirroir exact reflet l'un de l'autre.

Partout les campagnes jugent les villes, Babylones ou toutes les perversions tous les outrages deviennent possibles, toutes les unions mixtes, toute les désacralisations.  Aux États-Unis, les texans regardent les new-yorkais. En France, les provinciaux regardent les parisiens. En Russie,  les classes populaires et rurales regardent les intellectuels des grandes villes. En inde, les paysans regardent la liberté des villes et rejettent le mode de vie à l'occidental.

Le monde est en transformation, les modes de vie se mélangent et partout au lieu d'une dilution, on observe un renforcement identitaire.

Plus le monde s'apprête à changer, et plus tout le monde freine des quatre fers....

L'argent confronte la dictature de la médiocrité, la majorité critique la dictature de l'argent avec comme chef d'orchestre les rois de l'argent.









lundi 1 mai 2017

Dividend Aristorats ?

Des dividendes en veux tu en voilà

bourse actions diviendesAlors que dans le contexte actuel des élections françaises, les dividendes ne sont pas très aimés.

Chez les investisseurs, en ce moment, les stratégies Dividends Aristocrats et autres Dividend Growth  font fureur.


Je vais maintenant jeter un coup d’œil sur les stratégies axées sur le choix de titres à haut dividendes.

Le contexte

L'engouement pour les dividendes est un engouement par défaut. Alors que les années 80 offraient aux investisseurs des livrets A à des taux de plus de  9%  (avec l'inflation qui va avec il est vrai), les taux de rémunération sont tombés à 0% et ceux de l'assurance vie à peine à plus de 2%. Au même moment, la valeur de l'indice CAC 40 n'a jamais atteint les niveaux d'avant la crise, offrant des rendements très limités aux investisseurs.

Alors que tous les sources de rendement se sont épuisés, les investisseurs se tournent naturellement vers les dividendes, qui lors des décennies précédentes n'avait pas pesé dans leur choix.

Dans ce contexte, les investisseurs ont tendance à percevoir les dividendes comme un revenu sûr. Mais rappelons, que les dividendes sont aussi liés aux cycles économiques que les actions, ils en portent les mêmes risques. Les portefeuilles orienté dividendes ne sont pas moins risqués que les portefeuilles de marché.

Surtout, l'attraction pour les dividendes commence à être un problème en soi. En effet, suite à la ruée des actionnaires vers les dividendes, les valorisations de ces titres sont parties en sucette

Les dividendes ne sont pas gratuits...


Si les dividendes paraissent aussi attrayants, c'est que il 'est pas immédiatement perçu que les distributions de dividendes se font au détriment de la valeur des titres. Pour tout dividende versé, c'est une partie des bénéfices qui n'est pas utilisée pour développer l'activité de l'entreprise. Et en conséquence, pour 1€ de dividende perçu, le titre doit dévisser de 1 €

Qui plus est, la perception des investisseurs est que les dividendes sont stables dans le temps, or rien n'est moins vrai, une entreprise en difficulté ne va pas maintenir son dividende...

Suivant le raisonnement développé par Hartzmark & Solomon en 2016,  si deux titres voient leur prix passer de 5€ à 6€ mais que le second arrive à 6€ en passant d'abord par 7€ puis en versant un dividende de 1€,  l'investisseur qui ne voit que les fluctuations de prix pensera que les deux titres sont équivalents, tandis que l'investisseur qui ne voit que les dividendes considérera que les 1€ de dividende sont un cadeau sans contrepartie.

Les auteurs parlent de 'free dividend fallacy' (en français: mythe des dividendes gratuits).

En allant plus loin, les auteurs notent que les investisseurs institutionnels ou particulier ne réinvestissent quasiment jamais les dividendes dans les titres émetteurs. De sorte que les jours ou beaucoup de versements de  dividendes ont lieu, les titres n'en versant pas sont avantagés.

En tout les auteurs estiment que les investisseurs misant sur les dividendes perdent entre 2 et 4% de rendement annuel dans cet exercice:

Hartzmark & Solomon 2016 dividend fallacy
Et ils ne sont pas les seuls loin de la à pointer ce coût disproportionné des dividendes. Un auteur que j'apprécie particulièrement, Meb Faber, en a fait un de ses sujets favoris. Il estime lui à 3% la perte annuelle associée à une sur-pondération des dividendes.

Les dividendes: des stratégies pas si attractives que ça sur le long terme


Comme pointé par Meb Faber, une stratégie Dividende n'est pas fondamentalement différente d'une stratégie Value.
Mais, pour les raisons comportementales citées plus haut, les dividendes aristocrates sont chers, et leur rendement sont inférieurs au simples stratégies Value. Et ce avant impôt.

Après impôt cette perte pourrait s'élever à 4.5% suivant le degré d'imposition.


 

samedi 29 avril 2017

PERCO, PEE: Pourquoi la complexité fiscale française nous impose ces supports

PEE Mine d'or
Tous les ans, à la période ou les intéressements et participations sont versées, j'échange avec mes collègues et je suis surpris par la faible proportion de gens qui tirent parti des mécanismes de l'épargne salariale.

Il y a essentiellement deux raisons à cela qui proviennent de publics différents.  Chez certaines personnes cela relève d'une réticente  bien ancrée à bloquer une somme d'argent quelque soit les circonstances. Chez ces personnes, un tiens vaut mieux que deux tu l'auras. Et ils s'empressent de demander le versement de la participation/intéressement. Ce sont généralement des gens qui évitent les placements, et qui préfèrent l'épargne simple.

L'autre cas qui advient souvent est celui des investisseurs avisés, qui ont de multiples placements, et qui ont tendance à dévaloriser les PEE/PERCO sous prétextes que le supports offerts sur ces placements sont en général e mauvaise facture. Un fait que l'on ne peut pas discuter, les banques bénéficiant clairement du manque de concurrence sur ce secteur, en offrant des supports chargés en frais et ayant des performances très médiocres. 

J'ai même vu des gens arrêtés par ces considérations  alors que l'employeur offrait un abondement 

Malgré une offre de support souvent déficiente, J'arguerai que le avantages de ces placements dépassent largement leurs inconvénients.

Les avantages 

PEE et PERCO ont deux avantages: fiscalité et... une flexibilité que les épargnants ne soupçonnent souvent pas.

Tout d'abord en ce qui concerne l’intéressement et la participation, leur versement sur un PEE/PERCO les exonère de l’impôt sur le revenu à 'exception des prélèvements sociaux (CSG,CRDS). C'est ausi le cas pour le compte épargne temps.

Ensuite, en cas de déblocage des fonds seuls les prélèvements sociaux sont dus sur les plus-values.



Cas des versements volontaires

Pour les versements volontaires, il faut distinguer la fiscalité des versements et celle des capitaux.

Les versements volontaires ne sont pas exonérés de l'impôt sur le revenu suivant le barème progressif. L'abondement de l'employeur l'est. Toutes les sommes versées sont sujettes aux prélèvements sociaux.

La fiscalité des capitaux dans le cas d'un versement de capital est uniquement soumise aux prélèvements sociaux, ce qui mets le PERCO/PEE au même niveau que l'assurance vie au but de 8 ans avec la fiscalité actuelle

Il faut donc que le placement soit jugé avantageux en dehors de tout cadeau fiscal avant de miser sur des versements volontaires non abondés.

Conclusion

Au vu de ces avantages, je recommanderai à tous les salariés ui peuvent en bénéficier:
- Ne percevez jamais vos intéressements/participation en salaire. placez-les toujours dans PEE/PERCO.
- Maximisez toujours l'abondement de votre employeur. Mais refléchissez avant de faire des versements volontaires non abondés.





samedi 22 avril 2017

Réaction à chaud sur les élections présidentielles françaises de 2017: macron en tête

Élections françaises: considérations dans le désordre

Nous sommes au portes du premier tour des élections françaises, et les derniers sondages donnent le tiercé gagnant suivant: Macron (24%), Le Pen (23%), et Fillon et Mélenchon plus ou moins ex æquo à 19%. Le gain de vote pour marine ou tout autre candidat n'est pas encore visible dans ces sondages (et il ne le sera pas avant la fin du premier tour).

Vu de l'étranger, et notamment de États-Unis, cette élection est vue comme une élection à risque avec de gros enjeux... Alors que chez nous, on peut clairement dire qu'elle ne suscite l’excitation de personne.

Donald Trump 'est même fendu d'un tweet sur le sujet:
Comme d'habitude, Donald Trump prouve encore son ineptie. Comment l’Amérique a-t-elle pu tomber aussi bas ?

On peut affirmer que contrairement à ce qu'affirme ce tweet et les articles du New York Times, l'attentat de jeudi soir, n'aura pas ou peu d'impact sur ces élections. D'abord, depuis des mois, Marine Le Pen est données perdante du second tour quel que soit son opposant, on voit mal un simple attentat comme celui de jeudi changer quelque chose à ces résultats. Nous sommes malheureusement habitués à ces attentats, ce n'est pas comme si c'était le premier....
Je suis toutefois sidéré par la complaisance que les médias français ont eu à 'égard de la candidate du Front National. Le règles du CSA semblent trop rigides, elles donnent une exposition beaucoup trop importante aux candidats dominants. Le seul résultat de ce système, c'est que TF1 à fait la pub de Marine pendant toute la campagne et que c'est sensé être un gain pour la démocratie. J'en ai marre de voir Philippot au journal de 13 heure, je n'ai pas besoin d'avoir son avis. Et TF1 et France 2 ne devraient pas nous forcer à subir cet affront quotidien. Ce système de représentativité proportionnelle ne fait le bonheur de personne, il devrait favoriser les petits candidats.
Sur le plan des idées et programmes, on peut dire que rien de nouveau n'a vraiment emergé ddans le débat.

Et l'impact sur le marché action ?

Comme on pu le voir, les élections françaises ont frappé les esprits des médias internationaux.



Pour moi, les médias étrangers surestiment les chances de Marine Le Pen de gagner, comme dans cet article de Mohamed El Erian, Il y a donc une opportunité à saisir. Dans un marché parisien détenu en grande partie par des investisseurs étrangers, qui depuis plusieurs mois fait preuve d'une valorisation attractive selon plusieurs indicateurs et peut offrir potentiellement des rendements long termes sur 10 ans de 6.1%.

Au vu de tout ces considérations, j'ai pris une position sur le CAC 40  depuis 2 semaines. Quelque soit le candidat qui se retrouvera face à Marine Le Pen au second tour il l'emportera, et l'impact sera positif. Ce qui sera le cas même si Mélenchon l'emporte au premier tour (et peut-être au second si macron est éliminé), potentiellement suite à un report des votes Hamon vers Mélenchon,  du moins dans un premier temps:

 
vote mélenchon elections présidentielles
Dans ce scenario inédit, on aurait potentiellement un second tour Melenchon/Macron qui donnerait Macron gagnant. Pour les investisseurs étrangers, il s'agit certainement de la meilleure option.

Dans tous les cas, un pari gagnant.  Nous le sauront de manière certaine lundi.





lundi 17 avril 2017

Selection de variables predictives pour un algorithme de Machine learning du marché action

feature selection

Trouver le sous-ensemble de variables explicatives qui améliore la qualité de prédiction d'un modèle: un problème difficile.

Posons d'abord le problème en termes abstraits. Supposons que nous disposons de K séries temporelles X1...Xk que nous envisageons comme potentiels prédicteurs d'une variable d’intérêt Y que nous souhaitons prédire à un horizon donné. Étant donné que nous pouvons totalement ignorer l'ordre de ces variables (les permutations ne changent pas le résultats), si nous voulions étudier toutes les combinaisons possibles de N variables (N<K) il nous faudrait évaluer 2^K combinaisons de prédicteurs, ce qui devient rapidement inexploitable pour des problèmes non triviaux.


Et il y a bien pire, les scenarios suivants peuvent se produire:
-  Deux variables supposées redondantes peuvent être prédictives lorsqu'elles sont combinées.
- Une variable inutile par elle-même peut devenir prédictive quand elle est combinée à d'autres variables
- Deux variables inutiles peuvent devenir utiles quand elles sont combinées.
- Augmenter le nombre de variable peut conduire à de l'overfitting.

Pour illustrer chacun de ces points, je vous invite à  consulter An Introduction to Variable and Feature Selection.

Utilisation des indicateurs économiques


De nombreux indicateurs économiques ont été proposés au fil des ans pour expliquer les fluctuation du marché action. La qualité de ces prédictions ont depuis été mis en causes lorsque ces variables ont été réévaluées sur des échantillons ou des intervalles différents ou pour des questions méthodologiques. Un papier célèbre de Goyal & Welsh (PDF) arguent que parmi 50 variables identifiées, aucune ne fait apparaître les propriétés décrites dans les travaux publiés originalement. Cette évaluation a été largement critiquée (par exemple Campbell & Thompson). Et le débat continue...

Ces travaux académiques ont toutefois en commun d'utiliser des outils paramétriques et/ou Bayésien basé sur des relations linéaires entre le variables (Ordinary Least Square OLS, ARD, Ridge, elasticNet), sans s'aventurer sur des algorithme d'apprentissages non paramétriques comme les arbres de décisions (Boosted Trees, Random Forest) ou les réseaux de neurones (LTSM, GRU et autres NarX). 

La littérature sur l'application de ces méthode de machine learning reste largement marginale, alors même qu'elle est d'un intérêt certain pour le praticien car les outils du machine learning comme Keras ou Scikit-Learn sont devenus maintenant d'une simplicité d’accès remarquable.

Dans cet article, je me propose d'exposer ma démarche pour sélectionner les variables explicatives dans le cadre particulier de la prédiction des marchés financiers caractérisés par un ratio bruit/signal très élevé, et par une structure qui évolue dans le temps.


Les Trois approches pour la sélection des prédicteurs dans une démarche de machine learning: Filter, Embedded & wrapper

Sans aller chercher très loin , l'article Wikipédia sur la sélection de variable (feature selection en anglais) donne une vision assez complète  du paysage moderne de la sélection de variable explicative.

L'approche Filter

Ces approches se divisent en trois catégories:L'approche filter: On  utilise ici des outils statistiques ou liés à a théorie de l'information pour isoler les variables les plus significatives parmi un ensemble, et cela indépendamment de tout algorithme d'apprentissage. Scikit-learn propose des outils dans ce sens issus de l'indicateur d'information mutuelle pour les régressions.

J'en profite pour fortement recommander à tous ceux qui sont intéressés par cette approche, de consulter avec la plus grande attention les extensions proposées par l'université Arizona State University au sein d'un package d'extension à scikit-learn appelé scikit-feature. Ce package s’intègre parfaitement au framework scikit-learn.

Dans la pratique, dans le cadre de mon application, ces méthodologies, même les plus récentes (JMI,CIFE),m'ont proposé parfois des choix de variables explicatives assez étranges... J'aimerais que le choix des variables soit basé sur un raisonnement statistique, mais dans la pratique, les variables sélectionnées sont souvent peu informatives pour les algorithmes que j'utilise (ExtraTrees, LTSM) ni même pour des ensembles de ceux-ci. Les sélections de ces algorithme donnent des résultats assez décevant dan la cross-validation de time-series (TimeSeriesSplit).
 

L'approche Embedded

Il s'agit ici des méthodes de sélection de variable intégrées à  la construction d'un modèle.Les modéle proposant de pondérer les variables sont nombreux : Lasso, ElasticNet, Ridge, SVM, Extra Trees, etc.
Ces modèles peuvent être utilisés directement, ou via un algorithme de Recursive Feature Elimination (RFE ou RFECV).

Ici encore, les résultats ont été decevants. Dans on cas, les méthodes de RFE ont donné des resultats trés instables à travers les classes d'actifs, les modèles choisis ou même les paramètres de Cross-Validation.  Les méthodes basés sur l'algorithme LARS n'ont pas réussi à converger. Les arbres décisionnels donnent soit beaucoup trop de variables significatives soit pas assez. Aucun modèle ne donne le même résultats qu'un autre modèle. Il est possible que ces résultats décevants soit lié à ma méconnaissance des paramètres et modalités pratiques de ces méthodes.

Mais dans tous les cas, vu le temps que j'y ai passé, ce ne sont pas vraiment des outils triviaux à utiliser.

L'approche Wrapper


Dans mon expérience, la seule méthode qui fonctionne est celle que j'appellerai la méthode ad-hoc: Dans le sens, ou elle est basée sur des sélections qui sont aléatoires initialement, et qui sont renforcées en les modifiant de manière répétée jusqu’à qu'une bonne solution soit trouvée. Cette approche nécessite d'évaluer les propositions une à une avec une cross-validation reproduisant au plus prés le scenario d'utilisation des modèles choisis. Pour ma part, je fais ma cross validation comme suit: je découpe mes données en 16 intervalles via TimeSeriesSplit. Pour éviter des résultats aberrants sur les premiers intervalles, le premier tiers de ceux-ci sont utilisés dans le training uniquement. Je choisit un modèle d’évaluation de cross-validation qui fait a moyenne entre des arbres décisionnels (Extra Trees) et un NN simple (MLPRegressor).

Parcourir l'espaces des prédicteurs avec les algorithmes génétiques et la recherche tabou.

Pour cadrer mon approche Wrapper, J'ai étudié une librairie assez marginale et peu connue qui s'appelle PyNeurGen. Cette librairie se propose de combiner les approches des algorithmes génétiques et celles des réseaux de neurones en utilisant une binarisation des formes de Backus-Naur. Cette librairie m'est utile pour deux raisons principales: elle contient une implémentation d'un réseau NarX, et surtout elle me permet de générer une population aléatoire de sous-ensemble de variables prédictives, de les évaluer, et de combiner les meilleures solutions entre elles.

Dans la pratique, comme l'univers à explorer contient 2^k combinaisons, l'algorithme peut ne jamais conserver vers une bonne solution. Par ailleurs, comme les variables peuvent se neutraliser les unes les autres, ou produire des effets non intuitifs, les solutions combinées sont rarement aussi bonnes que les deux parents qui leur ont donné leur matériel génétique.

Les avantages de cette méthode sont de proposer un ensemble initial de solution quand  le problème n'a pas été défriché.

Souvent, au lieu de rechercher une ensemble de prédicteurs à partir de rien, il est plus intéressant de partir d'une bonne solution et de rechercher des solutions adjacentes qui sont meilleures que la solution initiale. C'est le cas notamment quand on a récemment élargi notre ensemble de prédicteurs avec de nouvelles variables. Dans ce cas, on peut vouloir étudier la performance d'une substitution ou d'un ajout d'une nouvelle variable en lieu et place d'une ancienne variable, ou vérifier si l'ajout d'une nouvelle variable ne rends pas redondantes les autres variables.

Pour ces situations, j'ai implémenté un outil de recherche d'optimum local basé sur une implémentation minimale de l'algorithme de Recherche Tabou.

En partant d'un sous ensemble de variables déjà évalué (une solution), a chaque itération de cet algorithme on évalue d'autres sous ensembles où une variable a été échangée, ajoutée ou soustraite de ma solution initiale. Cette méthode donne de bon résultats.

A terme, je compte étendre cet algorithme en lui permettant d'explorer des solutions ou des combinaisons non linéaires de variables qui seront ajoutées/substituées au variables existantes (produit, division, moyennes mobiles, etc).


samedi 1 avril 2017

Yahoo stocks API: données manquantes sur les etf depuis le vendredi 24 mars 2017

pandas datareader yahoo problem foreign stocks

Récupérer les données avec pandas datareader sur le marché français

Comme je l'ai déjà dit, je suis en train de monter un outil de machine learning pour mettre en place une plateforme d'allocation stratégique sur les etf du marché français.

Pour ce faire, je construit plus de 87 séries financières distinctes (techniques ou économiques),que je construis avec Quandl, la FED et Yahoo stock API.

Yahoo stock API est essentiel car il me permet de récupérer les valeurs journalières pour mes actifs de leur Open High Low Close Volume (OHLCV) sur un historique partant de 2005 (oui je sais c'est peu...) soit 3000 valeurs à peu prés.

Pour  être plus efficient, je ne récupère plus l'historique complet de mes actifs depuis 2005, mais je procède par incréments de date à date. De cette manière, je ne récupère que les données de la semaine en cours.

Techniquement, j'utilise depuis le départ pandas datareader pour cette tache. Qui me donne entière satisfaction mais qui a révélé ses limites au cours de l'incident actuel sur yahoo.

En effet, depuis le 23 mars 2017, les données yahoo sur tous les etfs (mais pas les actions) sont figées. Pas moyen de récupérer ces données, et donc toute ma chaine était bloquée.
cours historique etf Euronext manuant sur yaho stock depuis le 23 mars

Ayant déjà anticipé ce problème, je me suis immédiatement tourné vers Google stock API via pandas datareader. Mais je suis tombé sur un autre os: pandas ne récupère pas d'historique sur les marchés autre que uk ou us.

Heureusement, nous sommes en python, et les solutions ne manquent pas: Beautiful Soup !

Récupérer les derniers cours des etf via bs et pandas

Dans le code ci-dessous, je vais utiliser la librairie pandas et beautiful soup pour construire un outil récupérant le dernier historique d'une Série d'actifs sur Google finance API. Le code est self explanatory, je vous laisse le lire:


from datetime import datetime
import requests
import bs4
import pandas as pd

google_tickers=[ 
    'NRGW','ASI' 
    ]

def get_scraped_google_stock_prices(begin,end):
    data={}
    for ticker in google_tickers:
        print ticker,
        url = 'https://www.google.com/finance/historical?q=EPA:'+ticker
        req = requests.get(url)
        bs = bs4.BeautifulSoup(req.text,'lxml')
        div_price = bs.find(attrs={'class': 'gf-table historical_price'})
        df=pd.read_html(str(div_price),parse_dates=True,index_col=0,header=0)[0].sort_index().loc[begin:end]
        data[ticker]=df
        print 'fetched from: ',df.index.min(),', to:',df.index.max(),', ', len(df),' rows '
    pane=pd.Panel.from_dict(data,orient='minor')
    return pane

 
print get_scraped_google_stock_prices(datetime(2017,3,20),datetime(2017,3,30))


ce qui nous retourne:


Dimensions: 5 (items) x 9 (major_axis) x 2 (minor_axis)
Items axis: Open to Volume
Major_axis axis: 2017-03-20 00:00:00 to 2017-03-30 00:00:00
Minor_axis axis: ASI to NRGW

et voila.

samedi 25 mars 2017

Keras 2.0: Suppression des NN MaxoutDense et Highway

Keras 2.0 Keras 2.0: Une bonne nouvelle ?

Notre ami frenchy François Chollet, vient de publier a version 2.0 du framework de deep learning keras.

Vous pouvez l'installer simplement mais pour les utilisateurs avancés, cette version reserve une mauvaise surprise, les layers Highway et MaxoutDense sont supprimés

Les sources de ces layers sont toujours disponibles, mais leur maintenance n'est plus assurée. C'est dommage parce que ces outils donnaient accès au pékin moyen à des travaux de recherche récents et prometteurs (. J'utilise pour ma part ces deux Layers et je pense qu'ils peuvent servir au plus grand nombre, alors pourquoi les supprimer ? Petit tour de ces deux essentiels.

Highway networks

Les Highway networks sont des réseaux qui tirent parti des avancées sur les réseaux récurrents à mémoire longue (LTSM) pour résoudre le problème des vanishing gradients sur des réseaux qui affectent les architectures avec de nombreux niveaux.

On connait depuis longtemps le résultat théorique qu'un réseau de neurones peut approximer n'importe quelle fonction, mais cette propriété théorique occulte le fait que les réseaux plus profonds convergent plus rapidement, et surtout qu'ils ont un pouvoir de généralisation beaucoup plus fort. Avoir la possibilité d'étendre son réseau sans encourir de pénalité est donc primordial, et la décision de Keras de reléguer cette fonctionnalité à la marge est surprenante.

En python avec keras, on avait le code suivant:
def get_Highway_model(l, n_highway=4):
    model = Sequential()
    model.add(Dense(3 * l, input_dim=l))
    model.add(Dropout(0.2))
    for i in range(n_highway):
        model.add(Highway())
        model.add(Dropout(0.2))
    model.add(Dense(1))
    model.compile(loss='mse', optimizer='rmsprop')
    return model

Max out Networks

Les Max Out networks sont une extension de la technique du Drop Out, une technique de régularisation des poids qui réduit effectivement le degré d'overfitting associé à une optimisation.

Les Maxout networks peuvent être assimilé à un moyennage de modèle, plusieurs versions d'un même réseau contribuant au résultat final.

def get_MaxOut_model(l):
    model = Sequential()
    model.add(MaxoutDense(3 * l, input_dim=l))
    model.add(Dropout(0.2))
    model.add(MaxoutDense(3 * l))
    model.add(Dropout(0.2))
    model.add(Dense(1))
    model.compile(loss='mse', optimizer='rmsprop')
    return model

Je suis en train  d’essayer de combiner ces deux layers... Mais pour l'instant, pas question de passer à la version 2.0 de Keras.

jeudi 23 mars 2017

Liens : superbe infographie de stitchfix

allez jeter un coup d'oeuil à Stitchfix. Vraiment.

mercredi 8 mars 2017

Backtests: determiner l'univers des solutions

algorithme de trading overfitting
Lorsque l'on se lance dans la réalisation d'un algorithme de trading, la première étape est de procéder à un backtest. Un backtest est un programme qui permet de simuler le comportement qu'un algorithme aurait eu dans le passé. Un backtest permet de répondre à al question: si j'avais fait tourner mon algorithme en 2016, en 2015 ou en 2008, que m'aurais-t-il apporté ?

Note: J'utilise le framework PyalgoTrade pour exécuter mes backtests.

Lorsque on souhaite optimiser un algorithme, il est tentant de le construire en maximisant le rendement des backtests sur la période d’intérêt. Mais attention, si la performance d'un backtest est indicative, il est déconseillé de choisir des paramètres uniquement selon ce critère, car en se faisant on adapte son algorithme à une période dans le passé sans le préparer pour les conditions qui prévaudrons dans le futur. On parle d'overfitting.

Il est souvent conseillé de procéder à des cross-validations pour éviter cet écueil. Mais avant d'en arriver là, il y a un test qui est rarement évoqué, qui consiste à comparer le backtest de l'algorithme avec un backtest complétement aléatoire, et inversement de comparer l'algorithme avec un algorithme qui aurait une connaissance parfaite et absolue du futur.

Ces deux tests sont purement théoriques, mais ils permettent de répondre aux questions suivantes:
  • Quelle est la performance maximale théorique avec les contraintes et modalités (fréquence, nombre d'actifs évalués, nombre d'actifs détenus, stop loss, coût de transaction...) de mon algorithme ?
  • Comment mon algorithme se compare avec un algorithme similaire mais qui choisit ses trades complétement au hasard ?

Résultat du test avec mon algorithme de trading


Je m'attache à tester la performance absolue et théorique d'un algorithme de trading qui suit les modalités suivantes:
  • Sélectionne tous les mois à date fixe 3 etf parmi 15 alternatives.
  • Les trois titres sont équi-pondérés et sont détenus pendant un mois complet date à date.
  • Cet algorithme est testé pendant 4 ans roulants de 2013 à 2017.
Selon ces modalités, un algorithme qui aurait une connaissance parfaite et absolue du future aurait la performance suivante:

backtest etf performance absolue
Ce dispositif hypothétique aurait multiplié par 19 fois (oui fois +1 800%) soit 109% par an. On est très clairement dans une croissance exponentielle.

Et inversent sur une cinquantaine de tests d'algorithmes aléatoires, on mesure une moyenne de performance de 38% en 4 ans. Pour donner une idée de ce que cela représente, un algorithme aléatoire aurait rapporté plus qu'un buy & hold sur le CAC 40.

Cette performance des algorithme totalement naifs est particulièrement surprenante. Actuellement d'ailleurs, la meilleure performance que j'ai obtenue sur un backtest est inférieure au meilleur résultat aléatoire que j'ai obtenu. Mon meilleur algorithme se situe à peine dans le 97eme percentile des résultats aléatoires

De manière générale, Ceci illustre deux points importants:
  • Il est très difficile au sens statistique de distinguer entre un résultat obtenu par chance et un résultat construit par une méthode. Il est facile de contruire des solutions aléatoires qui battent sur des intervalles restreint des solutions basés sur un raisonnement statistique de machine learning.
  • Il est vraisemblablement impossible de se rapprocher de la performance de l'algorithme omniscient. Ceci illustre le fait que dan la plupart des cas, les algorithme basé sur des raisonnements statistiques reposent sur des probabilités s'éloignant seulement très légèrement d'un jeté de dés. Au lieu de gagner 50% du temps, on gagne 51% du temps, et c'est de ce minsuscule 'edge' que l'on doit tirer parti. 

samedi 4 mars 2017

Mesure de la performance d'un algorithme de Machine learning pour le trading (partie 1/2)

neural network
La section qui va suivre est basée sur l'ouvrage de référence, Elements of Statistical Learning (PDF) de Hastie, Tibshirani & Friedman. 

Lorsque 'on essaie de prédire une série financière Y à partir d'un vecteur X=( (X1)t,..,(XN)t) de prédicteurs, le problème se réduit à déterminer une fonction f telle que:
Optimiation target, regression des prédiceurs
Le terme ε représente la part aléatoire du problème, il s'agit d'une variable aléatoire réelle d'espérance 0 et indépendante de X.  Dans le cas des séries financières de marché, il est prudent de supposer que ε n'est pas normale et exhibe skew (asymétrie) et une kurtosis (kurtoleptique).

La fonction f représente la partie déterministe des fluctuations de notre variable d’intérêt Y dont la variance peut être expliquée par notre algorithme de Machine learning. Cette fonction f n'est pas paramétrique, et n'est probablement pas exploitable si on la réduit à une fonction linéaire.

Dans les séries financières, l’expérience montre qu'une faible partie des fluctuations de Y peut être expliquée par notre fonction déterministe (voir aussi la performance de cette compétition kaggle). Dans la pratique, la prédiction des séries financières est rendu difficile pour au minimum les raisons suivantes:
  • Les prédicteurs sont tous très faibles quand ils sont pris individuellement.
  • Obtenir une relation générale à partir de données historiques est difficile car le bruit ε obscurcit la définition de notre fonction f.
  • Il est probablement nécessaire de combiner un nombre important de prédicteurs pour obtenir un pronostic de qualité ce qui réduit l’efficacité des algorithme de ML pour cause de malédiction de haute dimensionnalité
  • Les marchés financiers sont sujets à des changements de régimes, et les relation statistiques historiques peuvent disparaitre suite à des changements de cycles économique ou sociétaux.

Obtenir une Prédiction Exploitable

Un algorithme de trading utilisant le machine learning disposant de donnée de marché de qualité doit  pouvoir surmonter ces obstacles. Pour être exploitable dans la pratique, cet algorithme doit pouvoir donner un score à un ensemble d'actifs, pour permettre de sélectionner une allocation d'actif (comme celui-ci. Par exemple dans mon cas:

algorithme de prédiction d'ETF

Ici, chaque barre représente une score du rendement probable dans 20 jours de chaque actif en date du 03 mars 2017. Le meilleur score correspond à la meilleure espérance de gain. Si on veut interpréter cet algorithme, on voit qu'il recommande recommande d'investir sur les indices d'actions américains et émergents à l'exclusion de ceux dont l'économie dépend du secteur énergétique. Dans la pratique, toutes les prédictions ci-dessus ne sont pas exploitables. Notamment celles qui sont trop proches de 0 ne permettent pas d'avoir une marge de sécurité assez importante et doivent être donc ignorées. Les prédictions en dessous d'un certain seuil T sont considérées comme du bruit. Par exemple, on peut placer ce seuil à 4%, et ne passer un ordre d'achat que sur les deux meilleurs scores produit par l'algorithme (ici un GRU keras).

Dans la pratique, cet algorithme s'éloigne parfois très sensiblement des rendements réalisés historiquement:
prediction keras algorithme rendement

Ce qui nous amène au sujet de ce post: Une fois la prédiction réalisée, comment s'assurer qu'elle est exploitable ou à jeter ?

Les ouvrages de référence mentionnent bien sur plusieurs mesures de la précision d'un algorithme. Elles sont basées sur l'erreur quadratique moyenne  comme le coefficient de détermination R2 ou sur l'erreur absolue.

Mais elles sont difficiles à appliquer sur des séries financières à cause de leur forte composante aléatoire. Pour être concret, j'ai noté que lorsqu'on soumet des séries financières à un algorithme d'apprentissage (SVM, Gadient Boosting, NN, RNN, Random Forest,etc), les algorithmes ont tendances à converger vers une solution naïve qui est la moyenne des échantillons proposés à l'algorithme (pour les séries financières, souvent E(Y) tend vers  0...). Cette solution naïve a tendance à dominer d'autres solutions proposées par les algorithmes d'apprentissage quand on utilise les mesures d'erreur quadratiques, alors même que cette solution naïve n'a aucune valeur dans le cadre d'un algorithme d'allocation dynamique d'actif. Il existe pourtant d'autres mesures utilisées pour les problèmes de classification qui permettent  de surmonter ce problème.

Considérons un algorithme qui tous les mois fait une prédiction sur les actifs qui vont surperformer sur le mois suivant. Dans ce cas, comme on l'a dit plus haut, on exploitera pas les prédictions dont la valeur absolue est inférieure à un seuil arbitraire T correspondant à une marge de sécurité. Si par ailleurs, notre algorithme est long-only, les prédictions inférieures à notre seuil T ne devraient pas compter dans notre mesure d'erreur. Par exemple, si mon algorithme me produit un score -6% pour un actifs, je suis certain de ne pas investir sur ce titre. Si cet actif perd lors du mois suivant, -12% u -20% importe peu: Comme cet actif n'est pas investi, il ne contribue pas à notre résultat le mois suivant. Il y a donc une asymétrie qui doit nous permettre, si on l'exploite, de sélectionner des algorithmes qui ne convergent pas vers la moyenne arithmétique.

On veut comptabiliser toutes les prédictions dont le score est supérieur à T et qui se concrétise pas un investissement de rendement positif. Les prédictions supérieures à T qui aboutissent à un rendement négatif seront comptabilisées au détriment de la mesure précédente. Il existe des mesures pour atteindre cet objectif :le ROC.

Je détaillerai la semaine prochaine mes expérimentations sur ce sujet.







Newsletter

Vous voulez suivre ce blog ?

Saisissez votre adresse email :

Flux RSS