Mission Big Data de Boston à New York

Du 14 au 21 septembre, Alexandre Bilger et Xavier Pornain se sont envolés vers les Etats-Unis pour une mission « Big Data, simulation numérique » organisée dans le cadre du programme « Ambition PME » qui vise à accélérer le développement des PME françaises innovantes à l’international.

new-york-1-1

Au programme, coaching pour mieux appréhender les spécificités juridiques et marketing américaines, découverte de l’écosystème local, networking et pitch de la solution Sinequa à la Data Innovation Night de Boston et à la Data-Driven NYC de New-York.

« La CCIP [qui est avec Systematic, à l’initiative de ce voyage] nous a approchés à l’occasion du salon Big Data Paris pour nous proposer de faire partie de cette délégation de 7 start-up françaises voyageant de Boston à New York pour prospecter le marché américain.  En tant qu’un des leaders français dans le domaine du Big Data et ayant déjà de nombreux clients à l’international, nous n’avons pas de doute sur le fait que notre technologie est suffisamment mature pour répondre aux attentes de géants américains tous secteurs confondus. Pour nous, ce voyage a donc surtout été l’occasion d’affuter notre discours pour mieux prendre en compte les codes américains et surtout de décrocher des rendez-vous d’excellent niveau avec des personnes décisionnaires de grands comptes américains » explique Xavier.

Les réactions ont été extrêmement positives vis-à-vis de la solution Sinequa. Les entreprises rencontrées, des géants du domaine de l’assurance, de la banque, ou de l’industrie ont été très réceptifs vis-à-vis de la technologie de Search et d’Analyse du Big Data en temps réel de Sinequa. Ils ont une excellente compréhension des problématiques sur lesquelles nous travaillons et voient tout à fait comment nous pourrions leur être utile.

Cette initiative nous a donc permis en une semaine de valider le potentiel de notre solution sur ce marché et nous fait faire un pas de plus vers une implantation future aux Etats-Unis.

 

 

+1Share on LinkedInShare on Twitter

En route vers le Big Data !

Le Big Data… On en entend tellement parler ces derniers temps qu’on en serait presque écœuré. Cela me fait penser à cette publicité pour un fastfood où une vieille dame pose la question magique « Where is the beef ? » * en scrutant son (petit) hamburger dans un pain énorme. La question est depuis entrée dans la langue courante anglaise, jouant même un rôle décisif en politique aux Etats-Unis l’année de la parution de la publicité.

Alors, où est donc le « beef » dans le Big Data ?

Soyons réalistes et n’essayons même pas de donner une définition du Big Data. Si vous avez des données en quantité suffisante et suffisamment hétérogènes pour qu’elles vous posent problème alors même que ces données pourraient être utiles à votre organisation : dites-vous que c’est du Big Data.

Y a-t-il vraiment quelque chose à tirer de ce Big Data ? Comme d’habitude, la réponse est « ça dépend ».

Ça dépend des données que vous avez collectées, de la personne qui pose la question, du contexte… Toute collection de données ne vous rendra pas riche – de même que tous les outils de gestion et d’analyse ne vous permettront pas d’en tirer profit.

Une chose est sure à propos du Big Data, c’est qu’il n’est pas structuré. Environ 80% des données d’une entreprise sont sous forme de texte, autant dire, hors de portée des applications d’entreprise (ERP, CRM, Bi, etc.).

Pour tirer du sens de ces données textuelles, un outil doit être capable « de comprendre » du texte dans différentes langues, en allant au-delà d’une recherche de mots clés ou du repérage de metadata. Enfin, la capacité à créer de la valeur grâce au Big Data dépend bien entendu de l’environnement de chaque entreprise.

Sur des projets de création d’une vue à 360° du client dans le domaine de la Banque et des centres d’appels d’opérateur télécom, nos clients obtiennent des ROI allant de 10M à 60M$ par an.

Si vous souhaitez en savoir plus, consultez la présentation « Where is the Beef ? Drilling through the hype to get real value” présentée lors de Sinequa Search Solutions le 8 octobre 2013 à Paris (à télécharger ici).

*Où est la viande ?

+1Share on LinkedInShare on Twitter

Congrès Big Data Paris 2013 – Interview d’Hans Josef Jeanrond

Lors du congrès Big Data 2013 qui s’est tenu les 3 et 4 avril, Hans Josef Jeanrond, Directeur Marketing de Sinequa, a présenté l’intérêt des solutions de search et  des plateformes d’Accès Unifié à l’Information pour traiter et valoriser les données non structurées contenues dans le Big Data.

Retrouvez l’interview :
Big Data 2013

+1Share on LinkedInShare on Twitter

Sémantique : choisir le bon moteur de recherche pour son entreprise

Frederik Cailliau, chercheur chez l’éditeur français Sinequa, détaille les questions qu’il faut se poser afin d’évaluer différents moteurs de recherche d’entreprise.

Pertinence : Est-ce que les documents renvoyés en réponse à une requête sont pertinents pour chaque utilisateur ? Est-ce que la liste des réponses est ordonnée par pertinence décroissante ? Est-ce que les documents sont correctement classés dans les catégories ? Est-ce que le moteur fait plus que simplement chercher des mots-clés ?

Convivialité de la recherche : Quelles fonctionnalités sont incluses dans le moteur pour optimiser le processus de recherche ? Quels outils facilitent la formulation de la requête et la spécification de filtres supplémentaires au cours de la recherche ?

Traitements linguistiques : Est-ce que le moteur dispose des traitements linguistiques spécifiques nécessaires pour toutes les langues dans lesquelles j’ai des documents ? Par exemple, fait-il de la décomposition des mots composés agglutinés en allemand ; est-ce qu’il interprète le tiret et l’apostrophe comme il faut ?

Performance et ‘scalabilité’ : Est-ce que le moteur est capable d’indexer toutes les données dans des temps avec un nombre de serveurs raisonnables ? Si la quantité de données augmente, est-il possible d’adapter facilement l’architecture sans impacter la pertinence ni la performance ? Peut-il servir un nombre croissant d’utilisateurs sans rupture du service ? Est-ce que la réponse est immédiate ?

Qualité des connecteurs : Est-ce que l’éditeur dispose des connecteurs pour toutes mes sources de données ? Est-ce que ces connecteurs extraient bien toutes les informations ?

Respect de la sécurité : Est-ce que la sécurité de l’accès aux documents définie par l’entreprise est bien respectée partout ? N’y a-t-il pas de fuites cachées par exemple à la complétion automatique de la requête ?

Généricité : Faut-il adapter le moteur aux données de l’entreprise ? Est-ce qu’il est facile à prendre en main (installation, configuration, mises à jour) ? Fait-il du text mining de façon générique et/ou fournit-il des outils de text mining en standard ?

Article écrit par Jean-François Prevéraud – Industrie et technologie
Lire l’article en ligne

+1Share on LinkedInShare on Twitter

La coopération homme-machine distance les « supercalculateurs »

Vous connaissez peut-être la vielle blague sur le supercalculateur à qui on a posé la question « quel est le sens de la vie », et qui sortait (après un long temps de calcul) la réponse « 27 ». Cette blague a été racontée pour illustrer bien des aspects différents  sur des ordinateurs, sur l’interaction homme machine, la philosophie et la vie en général. Ici, je voudrais tirer votre attention sur les questions floues et réponses précises, ou vice-versa, et à l’amélioration de l’interaction entre les hommes et les machines.

Shyam Sankar a donné une conférence intéressante à ce sujet à  TED, sous le titre de « l’ascension de la coopération homme-ordinateur ». Dans son discours il explique pourquoi « résoudre de grands défis (comme arrêter des terroristes ou identifier des tendances émergentes) n’est pas tant une question de trouver le bon algorithme mais plutôt de la bonne relation symbiotique entre calcul d’ordinateurs et créativité humaine ».

Son premier exemple est bien connu mais il mérite d’être raconté encore une fois. C’est l’histoire de deux championnats d’échec de niveau mondial : En 1997, le champion du monde Gary Kasparov perd contre l’ordinateur « Deep Blue » d’IBM. En 2005, dans un championnat d’échec ouvert à tous, dans lequel des hommes peuvent jouer avec des machines comme partenaires, un supercalculateur a été battu par un grand-maître avec un ordinateur portable assez médiocre. Mais à la surprise de tous, le tournoi a été remporté non pas par un grand maître associé à un supercalculateur, mais par deux amateurs avec trois ordinateurs portables assez faibles. Sankar  pense que c’est la façon d’interagir avec leurs machines qui a fait gagner des hommes moyens avec des ordinateurs moyens contre les meilleurs hommes avec les meilleures machines.

Très bien, mais quelle relation avec le Search ou l’Accès unifié à l’information (Unified Information Access UIA) ?

Peut-être la relation est-elle tenue, et peut-être je ne l’exprime pas bien, mais je vous sollicite de m’aider avec votre « puissance symbiotique cerveau-calculateur » pour affiner  mon argument.

Dans l’informatique “classique”, où l’on travaille avec des bases de données, des entrepôts de données (data warehouses), des systèmes de BI, etc. , des questions précises sont posées au (super) calculateur par des gens qui connaissent la structure de leurs données et maitrisent la façon de poser ces questions, et l’ordinateur sort des réponses précises du genre « 27 » ou des tableaux de bord sympathiques qui illustrent des chiffres et même des trends. Mais si vous voulez poser des questions qui vous amènent en dehors des structures de vos données ou de la logique prédéfinie de vos « systèmes décisionnels », vous n’aurez pas de chance.

Le Search, par contre, vous permet de poser des questions floues en langage naturel et il ne vous retournera pas une réponse du type « 27 », mais un ensemble de réponses – des documents ou des entrées d’une base de données – classées dans des catégories (des « facettes ») dans lesquelles vous pouvez naviguer. (Des informations de sources multiples, y inclus des applications métier,  peuvent être agrégés dans une catégorie) Vous pouvez zoomer sur des sous-catégories que votre intelligence humaine reconnait instantanément comme les plus prometteuses. Vous pouvez aussi raffiner votre question suite aux idées que le premier lot de réponses vous aura données. En effet, vous pouvez poser n’importe quelle question que vous voulez sans aucune nécessité de (re) programmer quoi que ce soit. Et dans un ping-pong de trois échanges avec votre solution de Search vous avez de fortes chances de découvrir une réponse que votre supercalculateur avec ses logiciels élaborés n’aurait pas trouvée. Ou peut-être il l’aurait trouvée, mais après quelques milliers de jours-hommes de développement et de mise au point, et des millions d’Euros dépensés pour un matériel de pointe – tout comme Watson a gagné le jeu Jeopardy.

Chez Sinequa, nous aimons penser que nos logiciels sont meilleurs que la moyenne, mais même si vous présumez qu’ils soient tout justes dans la moyenne, l’interaction des utilisateurs avec notre plateforme de Search et d’accès unifié à l’information (Unified Information Access, UIA) se rapproche assez de celle des deux amateurs avec leurs ordinateurs portables qui ont battu le champion de l’échec avec son supercalculateur.

+1Share on LinkedInShare on Twitter