Archive for the ‘Evénement’ Category

Présentation à Devoxx France 2015 – UX : Le poids des mots

samedi, avril 11th, 2015

J’ai eu la joie de présenter une conférence à Devoxx France 2015 sur l’expérience utilisateur en relation avec l’analyse des besoins. Je remets le pitch ci-dessous et les slides (non autoporteurs pour la plupart!) sur Slideshare.

Je serai ravi de re-présenter ce speech en public. N’hésitez-pas à me le demander si vous êtes intéressé.

« L’expérience utilisateur est un problème trop sérieux pour le confier à des graphistes ! Une bonne (ou une mauvaise) ergonomie ne se détermine pas en conception : à ce moment, il est déjà bien trop tard.

L’UX, c’est d’abord une affaire de mots : de bonnes (ou de mauvaises !) questions posées aux utilisateurs et des réponses formulées avec précision.

Où l’on apprend qu’une User Story (ou un Cas d’Utilisation) mal intitulée peut mutliplier par quatre le nombre d’écrans et qu’entre un « un » et un « mon », il y a trois clicks de souris… et que même une démarche agile peinera à rectifier ce qui se décide dès la Vision projet. »

Speech au prochain DDD Users’ Group Paris

mardi, avril 23rd, 2013

LogoDDDFRGrâce à Tomasz Jaskula qui l’a repris en main, le Domain Driven Design Users’ Group Paris est enfin actif régulièrement.

J’ai l’honneur d’y présenter un speech lors de la prochaine session, mardi 30 avril 2013 : Il n’y a pas de Bon Modèle Métier. C’est pratiquement le même que celui que j’avais animé à Devoxx France  2012.

J’y démonte quelques idées reçues sur les Modèles Métiers et surtout, sur la façon de les construire. Le lien avec le DDD ? La notion centrale de « Bounded Context ».

Si vous n’étiez pas à Devoxx l’an dernier ou si vous y étiez et que vous n’avez pas tout compris, je serai ravi de vous y retrouver.

 

 

« Ouvert » n’est pas « Vrai »

lundi, mars 5th, 2012

J’ai assisté, il y a quelque jours, à une soirée organisée à la Cantine sur l’Open Data vu par les candidats à l’élection présidentielle. J’ai été agréablement surpris par le niveau de compétences sur le sujet des différents intervenants (chaque candidat déclaré, sauf le FN, avait dépêché un représentant qui parlait au nom de son champion).

La soirée était finalement relativement consensuelle : tout le monde trouve que l’Open Data, c’est bien ;-). Le seul point (un peu) clivant était en fait le type de licence que chacun recommandait de mettre en place pour protéger les contenus mis à disposition. Les uns (les plus à gauche) préconisent une licence très restrictive quant à l’utilisation commerciale des données (licence virale de type GPL dans le monde de l’Open Source). A l’autre bout, des licences plus « libérales » permettent toute utilisation même commerciale des données, à condition de citer la source (c’est le cas de la licence ouverte qui régit les données publiées par la mission etalab). Entre les deux, des licences permettent l’utilisation commerciale pour proposer des services à valeur ajoutée tout en imposant le « partage à l’identique » et la redistribution des données produites (c’est le type de licence ODbL utilisée par la Mairie de Paris pour ses publications).

Je ne suis pas un expert, mais il me semble que le problème de ce dernier type de licence (un peu chèvre et chou) est de fixer la limite entre Création Produite et simple Base de Données dérivée, la seconde obligeant un partage à l’identique, la première pouvant se limiter à la mention de la source. Qui décide et comment ?

En fait si je fais ce billet, c’est que j’ai été surpris que personne ne fasse mention d’un point qui me semble pourtant essentiel : comment garantir l’intégrité de l’information produite à partir des données ouvertes utilisées ?

Je m’explique. La donnée ouverte brute a une caractéristique intéressante : elle est mise à disposition par l’état ou un organisme public ou parapublic qui lui confère une certaine garantie de qualité liée à la confiance qu’on peut accorder à son producteur. C’est ce qui fait dire à beaucoup de gens que l’Open Data, en permettant à chaque citoyen d’accéder directement aux données « à la source » l’aidera à prendre des décisions éclairées et à savoir si les politiques lui mentent ou non (chacun pourra faire son « fact checking » personnel). L’Open Data serait donc un grand progrès pour la démocratie.

Je suis assez dubitatif : la donnée n’est pas l’information. Ne serait-ce que parce qu’elle est extrêmement volumineuse, la donnée ouverte n’est pas manipulable ni a fortiori directement interprétable par le citoyen. Pour faire un parallèle avec un monde que je connais mieux, on a besoin de requêter, manipuler, agréger, transformer la donnée pour créer l’information nécessaire à la prise de décision (c’est justement le propos de l’informatique décisionnelle).

Autrement dit, les citoyens devront passer par des intermédiaires qui proposeront cette information agrégée (et donc interprétée). Mais qui va contrôler cette interprétation ? Qui va garantir que sous couvert d’une donnée objective issue directement de l’INSEE par exemple, ne se cache pas une information biaisée ? On le sait, il est extrêmement facile de « faire dire ce qu’on veut aux chiffres ». Il n’y aura pas, ici, de règles déontologiques (celles qui encadrent les instituts de sondages) ou d’éthique professionnelle (celle des bons journalistes par exemple) pour freiner, ou au moins expliciter, les interprétations partisanes. Et l’intégrité ne va pas de soi.

J’applaudis des deux mains tout ce qui peut encourager l’état à nous restituer notre propriété (ces données dont nous payons la production avec nos impôts). Je suis persuadé que nous avons là une nouvelle source de création de valeur et donc de richesse. Mais je n’y vois, malheureusement pas, le grand pas en avant démocratique promis par tous les speakers de la soirée.

QCon, Models and Integrism

mardi, mars 30th, 2010

Cet article est disponible en français sur le blog d’Objet Direct.

logo_qcon8I am just coming back from my three days of escape at QCon London. As always, an opportunity to step back, take a breath, open my eyes on what others do, how they work. I can there feel the trends and try and guess what my job will look like, next year and even after.

I promise, I will sum up the best moments and the keypoints of the conference. But before I go on, I would like to react off the cuff on something that seems important.

However, this year, I come back with a bad taste in my mouth (don’t misunderstand : as always, beer was great !). A taste of bitterness and anger.

Modeling is not only banned from QCon (as it has already been in the past two years), it has become a dirty word.

Code is the all-time star, which is fair, considering development is the conference main concern. Pointing at yesterdays mistakes seems to be quite healthy too (especially “overmodeling” syndrom which used to be an obvious sign of lack of confidence in the development process).

But I can’t stand to hear stars like Uncle Bob (writer of an UML for Java Programmers in 2003 !) saying that “as we all know, models are completely useless”, or Dan North (who gave an excellent talk besides) considering that the use of a modeler is a useless “complification”. It sounds to me like hypocrisy, demagoguery or fundamentalism (which is not far from stupidity).

The only talk I attended which was positive about modeling was Eric Evans’s speach about agile design. Nevertheless, he did not use the word Modeling but the more consensual Design. I think he had the right word: he said that developer community had “thrown away the baby with its bath water”.

I had the feeling of being in a religious circle attending professions of faith.

On one hand, the code fundamentalists, pure monotheists, nostalgic of a mythical golden age when the developper used to be the one and only master of its production, communicating directly with God (the Product Owner), custodian of a millenium knowledge (the Software Craftsmanship) taught by guru’s mouth.

And there are those UMLists, seen as dangerous unfaithful visionaries, whose delirium corrupted the perfect world of the above. These ones have to be exterminated by all means. I felt like being under a fatwa !

As always when there are problems, we need to find scapegoats. The models (and those who make them) seem to play this role today: symbols of the « Big Upfront Design », they are being the responsible for the failure of big projects. The models are seen as pure documentation artifacts: modeling would be a time consuming and unnecessary (or even perverse) activity, especially in an agile world.

In such a surrounding, I was really ashamed of showing my business card: besides my name you can read “MDA business line manager”. Like having an STD!

Yet it seems to me that modeling, instead of developping, allows to:

  • analyze a problem
  • compress its complexity
  • give a global view
  • abstract from technology
  • communicate

My brain is not big enough to do all this on its own. I need UML (or any other formalism) both as a crutch, a whiteboard, a memory expansion, a pair of glasses and a math formulary.

Modeling is not against developing (not to mention MDA that combines both). Modeling simply helps developing better.

Moreover, the code itself IS a model (“system of abstractions that describes selected aspects of a domain”) as an UML diagram is. Just a little more verbose (and a little more easy to execute).

Maybe this gap is only a symptom of various thinking modes: a French analytical thought (after all, Descartes and Merise are French creations!) vs. a pragmatic Anglo-Saxon thought.

I like to think there is good in both worlds and both complement each other nicely. By the way, it is what I think is the main interest of our job: to analyze a problem in order to be able to computerize its solving. This is what renews my daily motivation: how can I put the complexity of the world in a (good) program.

2011/02/15 Comments have been re-opened.

A suivre : Google Wave

jeudi, octobre 15th, 2009

google_wave_logo Pas de rapport direct avec le MD (sauf à l’utiliser comme “modeleur collaboratif”, ce que certains ont déjà réalisé) mais je publie sur le blog d’Objet Direct une série de posts sur le buzz du moment, Google Wave.

De retour !

lundi, octobre 5th, 2009

comeback J’ai un peu disparu de la circulation depuis quelques mois du fait d’un emploi du temps professionnel plutôt chargé.

J’ai quand même fait un peu de buzz depuis mon dernier post :-)

  • un séminaire à l’atelier BNP Paribas sur le MDA, support à l’agilité de la relation Maîtrise d’Oeuvre/Maîtrise d’Ouvrage. Ca explique comment l’approche MD rapproche les utilisateurs et les développeurs et pourquoi le MDA est bien une approche agile (au regard des critères du Manifeste Agile).
  • un article qui reprend quelques uns de mes thèmes favoris autour du MDA. J’essaie de faire un diagnostic sur le fait que le MDA mette du temps à s’imposer et je propose des solutions que j’ai personnellement éprouvées. Le contenu est assez proche de ce que j’avais présenté au Paris JUG l’année dernière.
  • et je retourne faire une présentation au MDDay 2009 (le 26 novembre dans les locaux flambant neufs de Microsoft à Issy-les-Moulineaux). Cette fois j’y parlerai de ce qui m’a occupé une bonne partie de cette année, à savoir la modernisation d’un parc applicatif client/serveur vers une architecture web en s’appuyant sur une plate-forme MDA. Venez-nombreux, c’est toujours gratuit et il y a de plus en plus d’orateurs (il y aura même Andrew Watson, VP et directeur technique de l’OMG et Jean Bézivin, le père spirituel d’une bonne partie de l’offre produit MDA en France !).

Après le MDDay 2008

vendredi, novembre 28th, 2008

MD_Day_2008_Petit Affluence encore plus importante que l’an dernier (>200 personnes) : heureusement, les locaux étaient moins exigus.

Organisation et logistique top (à part plusieurs coupures de courant sur La Défense pendant la présentation d’Ed Merks ! Il a du penser que la France était un pays sous-développé).

J’ai eu la chance de commencer (auditoire et moi encore frais) : les retours étaient plutôt positifs (mais personne ne vient jamais te voir en te disant : « ta présentation était nulle » !). Les présentations se sont enchaînées sur un rythme assez dense.

J’ai bien aimé les deux présentations des guest stars (Didier Girard et Ed Merks).

J’ai apprécié la vision pragmatique de Didier sur le MD, et image particulièrement le passage sur l' »espace de faisabilité » du MD, comparé à celui du code, et sa couverture du besoin.

Le débat autour du MD porte souvent sur les besoins non inclus dans cet espace de faisabilité (le jaune non couvert par le bleu) et le coût de leur couverture.

La présentation d’Ed Merks (« The Unbearable Stupidity of Modeling ») portait sur les critiques que supporte régulièrement la modélisation, et les réponses qu’il apporte en s’appuyant sur des arguments concrets (la plupart basés sur l’utilisation d’EMF). Son discours est convaincant (même si ses slides ne sont pas terribles !), mais si on creuse bien, on verra que la plupart des avantages de la modélisation (sous entendu « sur le codage sans modélisation ») qu’il cite, sont liés simplement à l’expressivité plus importante du modèle EMF par rapport au modèle java ! En particulier à la gestion des associations avec inverse.

J’ai beaucoup aimé la remarque suivante : « Ce que nous comprenons est simple, ce que nous ne comprenons pas encore est complexe ».

Les présentations seront bientôt disponibles sur le site du MDDay. En attendant voici la mienne en exclusivité :-)

Le retour du MDDay

lundi, novembre 3rd, 2008

image Un an déjà ! Après le succès du MDDay 2007, les partenaires organisateurs ont décidé de remettre le couvert.

C’est toujours une journée dédiée au Model Driven (Development, Architecture, Engineering, Testing…) et c’est toujours gratuit. Même principe que ce qui a fait son succès l’an dernier : des présentations jumelées expert + client.

En plus des partenaires (Objet Direct, Objecteering, Jaxio, Lyria/W4, BlueXML, MIA, Obeo, Sodius, et Microsoft) deux guest stars (Didier Girard et Ed Merks, Mr EMF) donneront leur vision du sujet.

J’animerai la présentation pour Objet Direct, en collaboration avec un de mes clients, Eric Deriaz, de Merck Serono, Genève.

Ma présentation, sera en quelque sorte, la suite de celle que j’ai faite l’an dernier (j’avais parlé de l’intégration des règles de gestion dans les modèles destinés au MD). Mon sujet cette année : comment modéliser efficacement une application en approche MD. Je parle bien de modèle applicatif (le sujet n’est pas le modèle de domaine) et je montrerai comment éviter les syndromes classiques :

  • Le PIM anémique : pas de comportement, pas de modèle applicatif,
  • Le PIM obèse : un modèle fonctionnel ultra-détaillé, lourd et coûteux,
  • Le PIM « PSM » : un modèle technique ; de la génération de code pas agile, sans modèle fonctionnel.

Je présenterai des exemples concrets de « Patterns Applicatifs » qui permettent, avec très peu d’énergie, de produire beaucoup de code.

Eric parlera des raisons qui ont poussé Merck Serono à expérimenter l’approche MD à travers ces patterns sur une application pilote et les résultats de cette expérimentation.

Venez nombreux !

Wake Up REST à la Cantine

mardi, septembre 30th, 2008

image J’ai eu la chance de participer jeudi matin (25/09) à une nouvelle initiative de Didier Girard (au fait, merci Didier), grand animateur de la communauté des architectes. Un « Wake Up » : ambiance conviviale autour d’un café à la Cantine (un peu tôt pour la bière tout de même !) pour une rencontre qui se voulait un brin polémique. L’idée était de nous faire réagir à l’arrivée de REST dans les architectures Web.

Didier nous présente REST comme un retour aux sources : finalement le web comme outil de publication documentaire à fait ses preuves, pourquoi ne pas voir une application comme un fournisseur de ressources (vues logiques sur les données) mises à disposition par les applications. Chaque ressource peut-être lue (GET), mise à jour (POST), créée (PUT) ou supprimée (DELETE) via une opération HTTP standard. Un des intérêts, faciliter la mise à disposition des données du SI (agrégée à la demande via des portails) et susciter de nouveaux usages.

Retour de balancier : la SOA voyait l’application comme fournisseur de services, les données n’étant que les valeurs de sortie des-dits service, REST nous propose une vision duale de la SOA, où les traitements sont implicites (une donnée est dans un état qui est gouverné par la dernière requête qui y a accédé).

Comme je l’ai dit lors de notre discussion jeudi, j’ai encore du mal à voir la valeur ajoutée, ou plutôt, j’ai l’impression que l’architecture REST, comme la SOA, est réductrice : les applications de gestion (celles sur lesquelles je travaille) sont plutôt conçues par rapport aux processus qu’elles automatisent et donc, centrées sur des activités métier (qui correspondent aux cas d’utilisation de l’application). Seules exceptions, les Référentiels, responsables de garantir la cohérence des données de références du SI ne fournissent souvent que des services CRUD (justement ceux cités plus haut). REST serait l’architecture adaptée à la mise à disposition en architecture web des Référentiels du SI ?

Je pense surtout qu’on tourne en rond ! Au « commencement » on publiait des documents sans état (web 1.0). On s’est rendu compte que pour faire des « vraies » applications, on avait besoin de publier des services (avènement de la SOA). On trouve ça trop compliqué (à juste titre) et on revient à la publication des données.

En fait quel est le besoin ? C’est la notion de « formulaire » au sens large : des données affichées + des traitements associés (les boutons). Suivant le cas, l’intérêt de l’utilisateur est plutôt centré sur les données ou sur les traitements.

Dans le cas général, cette chose étrange qui réunit des données et des traitements, on pourrait par exemple l’appeler un « objet » et se demander comment le publier sur le web…

Vivement la prochaine fois pour un Tribunal du SI ;-)

Google Developer Day Paris

jeudi, septembre 25th, 2008

image J’ai participé la semaine dernière (18/09), comme spectateur, au passage à Paris du Google Developer Day.

Un petit retour rapide sur deux des présentations auxquelles j’ai assisté :

Android

J’ai eu envie d’en savoir un peu plus sur Android, un des buzz à la mode. Malgré un présentation plutôt sympa, pas d’annonce fracassante ni d’exclu juteuse. On n’a même pas pu voir le G1 « en vrai » !
Petite confidence « off » du conférencier : « j’ai un iPhone et un G1 et je préfère quand même l’iPhone » :-)

Un truc très sympa : un gagnant français du concours de développements Android (Android Developer Challenge) organisé par Google à parlé de son appli : un central de gestion de covoiturage (avec paiement éventuel et gestion de blacklist) intégrant la géolocalisation. A suivre probablement.

Au passage le concours en question, très bien doté puisqu’au total, ils ont distribué 5 millions de dollars, leur a permis de se constituer une logithèque de qualité (~2000 softs) avant même la sortie du mobile !
La vraie question est : nous, développeurs d’applis de gestion, devons-nous nous pencher sur le développement mobile ? Devons nous investir, nous former ?

Autant vous le dire, la présentation ne m’a pas apporté la réponse :-(

M2C : même si le rapport au mobile est aujourd’hui très « personnel » voire privé, il me semble que son coût extrêmement faible au regard de la technologie qu’il embarque devrait (moyennant un peu plus d’imagination que ce à quoi nous avons habitué nos clients) nous permettre d’explorer de nouveaux « use cases ». Désolé, ça reste vague, mais je pense que ça viendra probablement de la BI pour qui la diffusion d’informations, leur présentation, la dimension « aide à la décision » devraient être des moteurs. Je vais en causer avec mes voisins de bureau

Google App Engine

La présentation pour laquelle j’étais essentiellement venu m’a laissé sur ma faim. Il m’a semblé que les deux conférenciers (non « Googliens ») avaient juste passé deux heures de plus que moi sur le sujet (j’avais téléchargé le SDK la veille et déroulé le « Hello World » : 10 mn montre en main) ! Ils ont déroulé le Hello World en une demi-heure puis passé en revue les services disponibles. A leur décharge, on ne peut pas dire que Google nous « arrose » d’informations sur le sujet !

Pour résumer, qu’est-ce que le Google App Engine ?

  • Vision commerciale : c’est l’offre « cloud computing » de Google (essentiellement en réponse à EC2 d’Amazon).
  • Vision technique : c’est un serveur d’application hébergé exclusivement chez Google et qui s’appuie sur son infrastructure et met à disposition ses services : authentification, mail, persistance dans « BigTable » (LA base Google), accès aux Google Apps…

Concernant la technique, plusieurs points peuvent faire « tiquer » : un développement pour Google App Engine est exclusivement pour Google App Engine ! Google n’a pas eu la volonté d’implémenter, avec ses ressources, un serveur d’appli « standard » (J2EE ?). Tout est un peu « exotique » : l’authentification nécessite d’avoir un compte Google (la page d’authent est la même que pour votre GMail), la base n’est pas relationnelle, le langage de programmation est Python… et, aujourd’hui, aucune solution connue (en tout cas utilisée dans ma boîte, Objet Direct) ne permet de développer facilement (c’est le point important !) des IHM web pour GAE.

Ca veut dire, investir pas mal pour un business à peine émergent (GAE n’existe que depuis avril !).
La donne va changer dès que les API java sortiront (ce qui ne devrait tout de même pas tarder, même si, même sous le sceau du secret, ils ont refusé de nous dire quand !).
Il est donc urgent d’attendre (mais pas longtemps, j’espère).

Une chose très sensible : ce sont des maniaques du secret. Je pense que même après douze bières, il est impossible de leur faire avouer quand java sortira sur GAE. Il doivent avoir un flingue dans le dos (et en tout état de cause, ils sont très, très « briefés »).
A part ça je confirme que l’accueil était très sympa et l’esprit (faussement !) startup affiché (allez voir les photos, il y a même une preuve que j’y étais !). Une bonne occasion de faire du networking » et/ou du recrutement ou tout simplement de croiser des gens sympas « en vrai » (salut Samuel :-) ) ou de vieilles connaissances.

Et, comme prévu, malheureusement, pas de MD chez Google pour le moment :-(

buy sale viagra
buy viagra online price
buy discount levitra
buy sale viagra
viagra 100 mg
buy cheap cialis
buy viagra
cheapest levitra
buy viagra online
buy viagra usa
buy viagra online
buy now viagra
buy price viagra
buy now levitra
buy discount viagra
cheap viagra online
buy viagra fedex
buy viagra overnight
buy viagra las vegas
generic viagra
cheap price viagra
Pfizer viagra free samples
generic cialis
cialis black reviews
buy cheap cialis
free madonna ringtones
cheapest cialis
buy now viagra online