Monday, 12 April 2021

croissance conceptuelle VII : the Gromov Hypothesis



Misha Gromov (G) présente dans une série d'articles une réflexion brillante sur l'apprentissage d'un hypothétique ergomind.

Bien que le 'principe' de Yoneda, au coeur de l'approche catégorique soit le guide essentiel de Gromov dans sa réflexion, notamment s'agissant de langage naturel (e.g. The main principle of finding similarities between linguistic units – this will be formalised and extended to other situations – reads: If many cofunctional partners of two units are weakly similar, then these units themselves are strongly similar [Learning-understanding]) il cherche à ergomind des structures, au lieu de le considérer comme un objet catégorique : contextué (ensemble des morphismes entrant ou sortant) et 'sans profondeur'.

A rebours de cette conception surprenament conservatrice, nous proposons dès croissance conceptuelle (C²) que l’algorithme est le graphe lui-même, sa qualité borne celle de toute search algo afférant.

Plutôt que de se pencher gravement sur un ergo-mind, Gromov devrait s'intéresser à un système physique, une sorte de syn-ergo-nomie, synthétique synergie_ergonomie, où ergo n'est plus le connecteur logique cartésien, mais retrouve son sens grec initial : l'action/travail/organe d'un 'point' du mal nommé "écosystème", que je propose de nommer plutôt synergosystem.

C'est ce macrosystème qui distille, lentement, l'information. Il est le graphe dans lequel chaque agent puise 'localement' : contextuellement. (CF croissance conceptuelle II-VI) : un puit de 'recommandation ' que Gromov évoque mais ne place pas au centre de sa réflexion :

Also there must be something, also 100% formal, in the human perception and understanding of this structure, more elaborate than just "feeling happy", which, in a simpler form, may be also present in the worm’s brain but not in the "brains" of the computers of today.

What constitutes this something, what makes our (and chess playing worm’s) understanding of chess different from that of a computer is not a superior depth but – this is what the gut feeling is trying to tell us – its Y1 universality and Y2 how this particular "understanding" is integrated in a wide network of other "understandings".

For instance, when a child observes people play chess, his/her perception of the game is

†1 organised on the basis of general or universal principles not specifically designed for learning to play chess or anything even remotely similar to chess;

†2 learning chess proceeds by associating what the child sees to many ideas already present in the child’s mind: moving objects, symmetric patterns, etc.46

45Freudists, of course, have different idea about it. https://en.chessbase.com/post/chepsychoanalysis-

psychology-and-pseudoscience

46A smart child who red Wittgenstein may have some ideas not related to the logic of the game but concerning the material the pieces are made from, e.g. imagining them made of chocolate. This is beyond abilities of the today computers but close to what a worm could find aesthetically attractive in chess.




2.3 Landscapes and Contexts.

...context is the key

from that comes the understanding of everything.

Figure 8: Kenneth Noland

Besides localised units such as words, sentences, parts of human faces and classes of these, which have (relatively) well defined boundaries, there are units representing classes of large and not fully specified chunks of flows SIG, such as city street and forest in the above pictures [Learning-understanding]

The general guidelines/principles suggested by ergo-logic for designing universal learning algorithms can be summarised as follows.

1. Flows of signals coming from the external world carry certain structures "diluted" in them.

Learning is a process of extracting these structures and incorporating them into learner’s own internal structure.

[ergo-cut]

G cite d'ailleurs encore John Scott Haldane, un tenant de l'organicisme. Or "Within contemporary biology, organicism stresses the organization (particularly the self-organizing properties) rather than the composition (the reduction into biological components) of organisms." Autrement dit, l'organicisme est une traduction de notre synergonomie, nourrie au principe de Yoneda.

Là donc où l'on attendrait une nouvelle QED, à savoir une SynErgoDynamics, forcément complexe puisque doté d’une géométrie compliquée : graphique, G ne montre qu'un ergomind type IA, écueil qu'il disait précisément vouloir éviter.

Autrement, dit , on parierait plutôt sur une approche type agent-based - genre verre de spins - que sur des machines volantes à la Vinci.

Bien sûr le graphe, dans toute sa complexité, n'a pas les symétries dont la physique est familière.

Il faut peut-être regarder plutôt du coté de la nouvelle Evolutionary Biology, CF the new symmetries of biology.

Et donc la dualité , G ⊢ C² s'exprime (si l'on note laconiquement ab le concept a→b, donc le produit/output d'ergobrain) : ergobrain⇝ab (G) ⇋ ab⇝ergobrain (C²)

autrement dit, la question est moins ce qui sort/output d'ergobrain, que ce qui y entre/input.

Il y a bien un NETwork, mais pas là où G le voit…

Une approche véritablement physique de l'information est le bien connu media is the message qui rend la dualité tool→langage < L que nous évoquons dans C² III.

Ex : la canonnière est la ‘science’ occidentale en Asie aux 18-19s, InterNET est l'inter_action / syn_ergie du XXIs). Parler d'une physique du langage, logotron ou logonomie, c'est parler de l’outil interactif, plutôt que d'un 'contenu' qui risque fort de n'être qu'un artefact.

Noter que deepL, comme Cat nous apprennent qu’une elementary unit est ... elementary ! avec ergobrain, G se laisse prendre au piège 'ensembliste' du réductionnisme.

Autre point curieux, G ne parle guère de hierarchy (But no matter how correlations are understood, one needs, realistically, a structural organisation of the set of all corrijk::: or rather of the set of the corresponding algorithms algoijk:::. The automatic learning process which one wants to design must deliver these algo organised according to a hierarchy of consecutive reductions of observable patterns in SIG.[Learning-understanding]).

No comments:

Post a Comment