Le big data est souvent perçu comme une
‘fonction d’ubérisation’, un ‘choc de simplification’.
Il y a fort à parier que bien au contraire,
le big data ( i.e. la digitalisation des relations économiques, sociales…) amène
à l’émergence de nouvelles compétences et de nouveaux métiers : nouvel épisode
de la division des tâches – spéciation, dirait un biologiste.
Stuart Kauffman a bien décrit dans ses
derniers livres ( Investigations, Reinvented
the sacred) le phénomène autocatalytique d’explosion de nouvelles niches.
L’écosystème big data voit
l’externalisation partielle des tâches d’analyses traditionnellement dévolues
au management des entreprises de type A (métiers ‘traditionnels’ : retail,
banque, assurance…) à des entreprises de type B (souvent des startups :
TinyClues, Proxem, Quid… ) qui exploitent des données fournies par des tiers C
(réseaux sociaux, GAFA, cartes de crédit…) ou internes à A.
\(C\, / A \leadsto B \leadsto A\)
Cela ne signifie pas que la totalité de la
réflexion est déléguée à B. Les tâches de B sont en fait relativement ‘bas
niveau’. Elles output des ‘analytiques’ qui aident A à construire des
stratégies informées. Exemples (B = Quid.com):
Quid représente un compromis intéressant dans
la relation Human /Machine, dans la même perspective que King et al.
« Computer-Assisted Keyword and Document Discovery from Unstructured
Text », ou celle de Ganascia / Floridi : ne pas jeter le bébé avec
l’eau : mieux utiliser la compétence humaine : « push the
boundaries of human intelligence ». Plus que jamais le sur mesure is your job, la machine « n’y entend goutte », mais des
briques algorithmiques fondamentales démultiplient l’exploration humaine.
« As an illustration, the way semantic information is extracted
from data can neither be reduced to the sole
induction, i.e. to a generalization from particulars, nor to a
representation in a universal digital ontology. The knowledge, which is
relevant semantic information, takes its sense within interpretative processes,
at a Level
of Abstraction and in a given Context, i.e. with respect to the key concepts of the
Philosophy of Information (Floridi, 2010). More generally, most of the open
problems of Philosophy of Information can be enlightened by being envisaged
under the light of the opposition between the “Sciences of nature” and the
“Sciences of culture”. » Ganascia, EpistemologyAI
Il est tout à fait vain d’imaginer un
traitement unique de ‘la’ data. Les sources de data sont hétérogènes, et le
seront de plus en plus. Des acteurs nouveaux apparaissent chaque jour, dotés
de compétences spécifiques, comme c’est par exemple le cas dans le domaine
scientifique depuis fort longtemps. D’ailleurs, ‘le’ domaine en question ne
cesse de se réinventer, au gré des découvertes scientifiques et techniques,
soumis à ces mêmes forces autocatalytiques dont il était question il y a un instant. Le fantasme
d'une AI venant uberiser toute forme de créativité humaine a toutes les
résonances d'un conte messianique ou (plus probablement) d'une escroquerie. Là
aussi, préadaptation et new
unprestable adjacent possible à la Kauffman devrait refroidir certaines illusions.
(Voir aussi à ce sujet Floridi)
Il est ainsi peu probable que A ait intérêt à internaliser intégralement sa gestion big data : le big data, manifestation ecosystémique, implique des chaines de dépendances ad infinitum, et donc la ‘délocalisation’ de la data : toute data – aussi déportée soit elle - est potentiellement pertinente pour A. La soudaineté et la technicité de B plaide aussi en faveur de l’externalisation. Autrement dit, pour encore un moment, le ‘sens’ de l’histoire est plutôt que A continue à externaliser le big data vers des acteurs B spécialisés par métier.
Il est ainsi peu probable que A ait intérêt à internaliser intégralement sa gestion big data : le big data, manifestation ecosystémique, implique des chaines de dépendances ad infinitum, et donc la ‘délocalisation’ de la data : toute data – aussi déportée soit elle - est potentiellement pertinente pour A. La soudaineté et la technicité de B plaide aussi en faveur de l’externalisation. Autrement dit, pour encore un moment, le ‘sens’ de l’histoire est plutôt que A continue à externaliser le big data vers des acteurs B spécialisés par métier.
Cette tendance va à l’encontre du mouvement
de constitution de vastes DSI internes à A dans les années 1990-2000.
Il n’y a pas de raison que le graphe
ci-dessus ne soit pas plus ramifié : \(B_n \leadsto B_{n-1}... \leadsto A\)
Dans
le cadre d’une théorie de l’apprentissage, on dirait que l’information est traitée
via un réseau profond. Chaque acteur
dans la chaine interroge un niveau organisationnel de la réalité. Cette
conception va évidemment à l’encontre des positions réductionnistes, qui en physique ou en biologie en particulier
voire en mathématiques n’ont jamais fini d’épouvanter,
figure du Commandeur toujours renaissante. (pour les maths CF Zalamea et Patras)
No comments:
Post a Comment