This book analyses the impact computerization has had on contemporary science and explains the origins, technical nature and epistemological consequences of the current decisive interplay between technology and science: an intertwining of formalism, computation, data acquisition, data and visualization and how these factors have led to the spread of simulation models since the 1950s. -/- Using historical, comparative and interpretative case studies from a range of disciplines, with a particular emphasis on the case of plant studies, the author shows how (...) and why computers, data treatment devices and programming languages have occasioned a gradual but irresistible and massive shift from mathematical models to computer simulations. -/- . (shrink)
The credibility of digital computer simulations has always been a problem. Today, through the debate on verification and validation, it has become a key issue. I will review the existing theses on that question. I will show that, due to the role of epistemological beliefs in science, no general agreement can be found on this matter. Hence, the complexity of the construction of sciences must be acknowledged. I illustrate these claims with a recent historical example. Finally I temperate this diversity (...) by insisting on recent trends in environmental sciences and in industrial sciences. (shrink)
Le déficit d’explicabilité des techniques d’apprentissage machine (AM) pose des problèmes opérationnels, juridiques et éthiques. Un des principaux objectifs de notre projet est de fournir des explications éthiques des sorties générées par une application fondée sur de l’AM, considérée comme une boîte noire. La première étape de ce projet, présentée dans cet article, consiste à montrer que la validation de ces boîtes noires diffère épistémologiquement de celle mise en place dans le cadre d’une modélisation mathématique et causale d’un phénomène physique. (...) La différence majeure est qu’une méthode d’AM ne prétend pas représenter une causalité entre les paramètres d’entrées, qui peuvent être de plus de haute dimensionnalité, et ceux de sortie. Nous montrons dans cet article l’intérêt de mettre en œuvre les distinctions épistémologiques entre les différentes fonctions épistémiques d’un modèle, d’une part, et entre la fonction épistémique et l’usage d’un modèle, d’autre part. Enfin, la dernière partie de cet article présente nos travaux en cours sur l’évaluation d’une explication, qui peut être plus persuasive qu’informative, ce qui peut ainsi causer des problèmes d’ordre éthique. (shrink)
Le déficit d’explicabilité des techniques d’apprentissage machine (AM) pose des problèmes opérationnels, juridiques et éthiques. Un des principaux objectifs de notre projet est de fournir des explications éthiques des sorties générées par une application fondée sur de l’AM, considérée comme une boîte noire. La première étape de ce projet, présentée dans cet article, consiste à montrer que la validation de ces boîtes noires diffère épistémologiquement de celle mise en place dans le cadre d’une modélisation mathéma- tique et causale d’un phénomène (...) physique. La différence majeure est qu’une méthode d’AM ne prétend pas représenter une causalité entre les paramètres d’entrées et ceux de sortie. Après avoir proposé une clarification et une adaptation des notions d’inter- prétabilité et d’explicabilité telles qu’on les rencontre dans la littérature déjà abondante sur le sujet, nous montrons dans cet article l’intérêt de mettre en œuvre les distinctions épistémologiques entre les différentes fonctions épistémiques d’un modèle, d’une part, et entre la fonction épistémique et l’usage d’un modèle, d’autre part. Enfin, la dernière partie de cet article présente nos travaux en cours sur l’évaluation d’une explication, qui peut être plus persuasive qu’informative, ce qui peut ainsi causer des problèmes d’ordre éthique. (shrink)
Since the 1990’s, social sciences are living their computational turn. This paper aims to clarify the epistemological meaning of this turn. To do this, we have to discriminate between different epistemic functions of computation among the diverse uses of computers for modeling and simulating in the social sciences. Because of the introduction of a new – and often more user-friendly – way of formalizing and computing, the question of realism of formalisms and of proof value of computational treatments reemerges. Facing (...) the spreading of computational simulations in all disciplines, some enthusiastic observers are claiming that we are entering a new era of unity for social sciences. Finally, the article shows that the conceptual and epistemological distinctions presented in the first sections lead to a more mitigated position: the transdisciplinary computational turn is a great one, but it is of a methodological nature. (shrink)
This paper proposes an extensionalist analysis of computer simulations (CSs). It puts the emphasis not on languages nor on models, but on symbols, on their extensions, and on their various ways of referring. It shows that chains of reference of symbols in CSs are multiple and of different kinds. As they are distinct and diverse, these chains enable different kinds of remoteness of reference and different kinds of validation for CSs. Although some methodological papers have already underlined the role of (...) these various relationships of reference in CSs and of cross-validations, this diversity is still overlooked in the epistemological literature on CSs. As a consequence, a particular outcome of this analytical view is an ability to classify existing epistemological theses on CSs according to what their authors choose to select and put at the forefront: either the extensions of symbols, or the symbol-types, or the symbol-tokens, or the internal denotational hierarchies of the CS or the reference of these hierarchies to external denotational hierarchies. Through the adoption of this extensionalist view, it also becomes possible to explain more precisely the reasons why some complete reduction of CSs to classical epistemic paradigms such as “experiment” or “theoretical argument” remains doubtful. On this last point, in particular, this paper is in agreement with what many epistemologists already have acknowledged. (shrink)
Par un procédé d'objections/réponses, nous passons d'abord en revue certains des arguments en faveur ou en défaveur du caractère empirique de la simulation informatique. A l'issue de ce chemin clarificateur, nous proposons des arguments en faveur du caractère concret des objets simulés en science, ce qui légitime le fait que l'on parle à leur sujet d'une expérience, plus spécifiquement d'une expérience concrète du second genre.
Nous distinguons trois visions de la complexité afin de clarifier les contours de la recherche dans ce domaine. Nous utilisons le démon de Laplace comme référence pour présenter ces visions. La vision 1 brise le rêve du démon de Laplace en identifiant des systèmes particuliers qui lui résistent en mathématiques, physique et informatique. La vision 2 propose une nouvelle version du rêve de Laplace fondée sur la disponibilité récente de grandes quantités de données et de nouvelles technologies de programmation, de (...) stockage et de calcul. La vision 3 met le démon face au défi de simuler la subjectivité et ses effets collectifs. (shrink)
Large sets of elements interacting locally and producing specific architectures reliably form a category that transcends the usual dividing line between biological and engineered systems. We propose to call them morphogenetically architected complex systems (MACS). While taking the emergence of properties seriously, the notion of MACS enables at the same time the design (or “meta-design”) of operational means that allow controlling and even, paradoxically, programming this emergence. To demonstrate our claim, we first show that among all the self-organized systems studied (...) in the field of Artificial Life, the specificity of MACS essentially lies in the close relation between their emergent properties and functional properties. Second, we argue that to be a MACS a system does not need to display more than weak emergent properties. Third, since the notion of weak emergence is based on the possibility of simulation, whether computational or mechanistic via machines, we see MACS as good candidates to help design artificial self-architected systems (such as robotic swarms) but also harness and redesign living ones (such as synthetic bacterial films). (shrink)
A recent evolution of computer simulations has led to the emergence of complex computer simulations. In particular, the need to formalize composite objects (those objects that are composed of other objects) has led to what the author suggests to call pluriformalizations, i.e. formalizations that are based on distinct sub-models which are expressed in a variety of heterogeneous symbolic languages. With the help of four case-studies, he shows that such pluriformalizations enable to formalize distinctly but simultaneously either different aspects or different (...) parts or different scales of the same object or system. From an epistemological standpoint, he suggests that this kind of computer-aided complex formalization of composite objects renew the traditional relations between computer simulations, theoretical models and operational models. (shrink)
A recent evolution of computer simulations has led to the emergence of complex computer simulations. In particular, the need to formalize composite objects (those objects that are composed of other objects) has led to what the author suggests calling pluriformalizations, i.e. formalizations that are based on distinct sub-models which are expressed in a variety of heterogeneous symbolic languages. With the help of four case-studies, he shows that such pluriformalizations enable to formalize distinctly but simultaneously either different aspects or different parts (...) or different scales of the same object or system. From an epistemological standpoint, he suggests that this kind of computer-aided complex formalization of composite objects renew the traditional relations between computer simulations, theoretical models and operational models. (shrink)
The aim of this paper is to discuss the “Framework for M&S with Agents” (FMSA) proposed by Zeigler et al. [2000, 2009] in regard to the diverse epistemological aims of agent simulations in social sciences. We first show that there surely are great similitudes, hence that the aim to emulate a universal “automated modeler agent” opens new ways of interactions between these two domains of M&S with agents. E.g., it can be shown that the multi-level conception at the core of (...) the FMSA is similar in both contexts: notions of “levels of system specifi cation”, “behavior of models”, “simulator”and “endomorphic agents” can be partially translated in the terms linked to the “denotational hierarchy” (DH) recently introduced in a multi-level centered epistemology of M&S. Second, we suggest considering the question of “credibility” of agent M&S in social sciences when we do not try to emulate but only to simulate target systems. Whereas a stringent and standardized treatment of the heterogeneous internal relations (in the DH) between systems of formalisms is the key problem and the essential challenge in the scope of Agent M&S driven engineering, it is urgent too to address the problem of the external relations (and of the external validity, hence of the epistemic power and credibility) of such levels of formalisms in the specific domains of agent M&S in social sciences, especially when we intend to introduce the concepts of activity tracking. (shrink)
Cognitive sciences as an interdisciplinary field, involving scientific disciplines (such as computer science, linguistics, psychology, neuroscience, economics, etc.), philosophical disciplines (philosophy of language, philosophy of mind, analytic philosophy, etc.) and engineering (notably knowledge engineering), have a vast theoretical and practical content, some even conflicting. In this interdisciplinary context and on computational modeling, ontologies play a crucial role in communication between disciplines and also in a process of innovation of theories, models and experiments in cognitive sciences. We propose a model for (...) this process here. An ontological commitment is advocated as the framework of a scientific realism, which leads computational modeling to search for more realistic models, for a complex systems perspective of nature and cognition. In that way multiagent modeling of complex systems has been fulfilling an important role. (shrink)
Now that complex Agent-Based Models and computer simulations spread over economics and social sciences - as in most sciences of complex systems -, epistemological puzzles (re)emerge. We introduce new epistemological tools so as to show to what precise extent each author is right when he focuses on some empirical, instrumental or conceptual significance of his model or simulation. By distinguishing between models and simulations, between types of models, between types of computer simulations and between types of empiricity, section 2 gives (...) conceptual tools to explain the rationale of the diverse epistemological positions presented in section 1. Finally, we claim that a careful attention to the real multiplicity of denotational powers of symbols at stake and then to the implicit routes of references operated by models and computer simulations is necessary to determine, in each case, the proper epistemic status and credibility of a given model and/or simulation. (shrink)
The aim of this paper is to describe and analyze the epistemological justification of a proposal initially made by the biomathematician Robert Rosen in 1958. In this theoretical proposal, Rosen suggests using the mathematical concept of “category” and the correlative concept of “natural equivalence” in mathematical modeling applied to living beings. Our questions are the following: According to Rosen, to what extent does the mathematical notion of category give access to more “natural” formalisms in the modeling of living beings? Is (...) the so -called “naturalness” of some kinds of equivalences (which the mathematical notion of category makes it possible to generalize and to put at the forefront) analogous to the naturalness of living systems? Rosen appears to answer “yes” and to ground this transfer of the concept of “natural equivalence” in biology on such an analogy. But this hypothesis, although fertile, remains debatable. Finally, this paper makes a brief account of the later evolution of Rosen’s arguments about this topic. In particular, it sheds light on the new role played by the notion of “category” in his more recent objections to the computational models that have pervaded almost every domain of biology since the 1990s. (shrink)
Architecture often relies on mathematical models, if only to anticipate the physical behavior of structures. Accordingly, mathematical modeling serves to find an optimal form given certain constraints, constraints themselves translated into a language which must be homogeneous to that of the model in order for resolution to be possible. Traditional modeling tied to design and architecture thus appears linked to a topdown vision of creation, of the modernist, voluntarist and uniformly normative type, because usually (mono)functionalist. One available instrument of calculation/representation/prescription (...) orders this conception of architecture: indeed the search for an optimal solution through mathematical calculation of a model itself mathematical, thus homogeneous and simple, is only possible when one or two functions or functional constraints are formulated, never more, and this, on a global level, therefore starting from a unique and homogenizing viewpoint. It is essential to grasp that, even applied to material and its properties or towards a particular esthetic or functional dimension, this viewpoint is thus abstractive and generalizing: disregarding singularity of context, insertion and relationship to the environment or local, social behavior. It leaves aside functional specificity and heterogeneousness – re-contextualized each time – of functions that the object or edifice are required to fulfill and optimize under diverse constraints, in their different parts. The computational turning point today’s digital design and computational architecture embody modifies these instrumental, original prescriptions, rendering them more flexible. Perhaps in light of this turnabout we should retrospectively interpret 20th century calls for modernism, functionalism and even biomorphism as being just as many ex post rationalizations in respect to techniques of strongly prescriptive modeling since our only instrument is a monolithic language, and so being, incites a top-down conception, (naturally weakly reactive to contexts), including forms whose overall appearance resembles in fine a living form. In order to liberate oneself from this and despite everything, emerge as its initiators, one has constructed from ideology and philosophy (of object, habitat, the urban) ex post, even while it is the instrument of modeling and conception that largely determines, normalizes and dictates ex ante, the possibilities and limitations of the creation of forms and living experiments4 in a given time. (shrink)
Currently, the widely used notion of activity is increasingly present in computer science. However, because this notion is used in specific contexts, it becomes vague. Here, the notion of activity is scrutinized in various contexts and, accordingly, put in perspective. It is discussed through four scientific disciplines: computer science, biology, economics, and epistemology. The definition of activity usually used in simulation is extended to new qualitative and quantitative definitions. In computer science, biology and economics disciplines, the new simulation activity definition (...) is first applied critically. Then, activity is discussed generally. In epistemology, activity is discussed, in a prospective way, as a possible framework in models of human beliefs and knowledge. (shrink)
This chapter elaborates and develops the thesis originally put forward by Mary Morgan (2005) that some mathematical models may surprise us, but that none of them can completely confound us, i.e. let us unable to produce an ex post theoretical understanding of the outcome of the model calculations. This chapter intends to object and demonstrate that what is certainly true of classical mathematical models is however not true of pluri-formalized simulations with multiple axiomatic bases. This chapter thus proposes to show (...) that - and why - some of these computational simulations that are now booming in the sciences not only surprise us but also confound us. To do so, it shows too that it is needed to elaborate and articulate with some new precision the concept of weak emergence initially due, for its part, to Mark A. Bedau (1997). (shrink)
Cet article revient sur la pratique scientifique et les thèses épistémologiques de Jean-Marie Legay concernant les modèles, les simulations et les systèmes complexes. Il montre qu'il y a une cohérence entre sa thèse anti-représentationnaliste concernant les modèles et les simulations et sa caractérisation même des systèmes complexes : une simulation informatique, seule, n'est pas une expérience au sens fort car, en l'isolant, on perd la dimension complexe de toute entreprise d'expérimentation scientifique dès lors qu'il y manque le modélisateur, le terrain (...) d'inspiration originelle ainsi que les objectifs de simulation, qui en interagissant à eux trois forment un système complexe. Vouloir prendre une simulation séparée de son modélisateur et de son ancrage empirique originel pour une expérience au sens fort, vouloir la considérer à elle seule comme une captation intégrale, dans la machine, de la complexité des systèmes étudiés par ailleurs en sciences de la vie et de l'environnement, ce serait croire que l'aventure scientifique elle-même n'aurait plus désormais, avec l'essor contemporain de l'informatique de modélisation, à être considérée elle-même comme complexe. C'est bien cette seule idée qui lui paraissait déraisonnable. (shrink)
Cet article ne se veut pas un commentaire suivi de la réflexion de Wittgenstein sur les règles. Ce ne sera pas non plus un commentaire de l’interprétation que Kripke fait du « suivi de la règle » chez Wittgenstein. Il ne sera pas davantage une application des thèses de Wittgenstein ni une tentative d’application directe d’une interprétation de ces thèses à l’épistémologie de la simulation du vivant ; ce qui serait, en soi, d’ailleurs contestable. Ce travail vise seulement à approfondir (...) la réflexion sur le statut cognitif de la simulation informatique du vivant. À ce titre, qui est donc essentiellement épistémologique et ciblé, il se veut une suggestion d’interprétation conceptuelle de certaines formes de simulation informatique du vivant, suggestion elle-même adossée à une prolongation de certaines distinctions déjà effectuées par Wittgenstein et ses commentateurs au sujet des règles et de leur suivi. L’objectif est de chercher à voir si, par ce moyen, la simulation informatique du vivant, par contraste avec les pratiques plus traditionnelles de modélisation, ne pourrait pas être plus précisément expliquée et légitimée, dans ses apports épistémologiques, comme dans ses limites aussi. (shrink)
Voilà un livre comme on pouvait l’espérer. Centré sur la Covid-19 et sur sa diffusion, il s’installe au cœur de questions brûlantes, encore urgentes pour tout un chacun, mais il garde aussi la tête froide, prend du recul, informe, enseigne et questionne, qui plus est de façon pédagogique. Davantage : au-delà du bilan critique, il propose des perspectives inédites, voire quelques suggestions solides. Il nous donne à réfléchir sur des chemins moins balisés. À le lire, on comprendra, par l’exemple, pourquoi (...) un modèle ne peut assurer simultanément toutes les fonctions de connaissance qu’on en peut attendre (décrire, prédire, expliquer, etc.). On comprendra pourquoi il faut souvent des modèles simples mais aussi, dans certains cas, des modèles nécessairement plus compliqués. On comprendra également pourquoi il faut cultiver une pluralité de modèles, toujours dans la collégialité, souvent dans l’interdisciplinarité : non seulement pour que ces modèles prennent en compte plusieurs aspects, mais aussi pour que leurs diverses fonctions puissent entrer en dialogue, et enfin pour qu’ils s’épaulent, convergent ou se rectifient, en particulier là où l’on attend d’eux qu’ils mettent au jour des propriétés structurelles robustes, les seules offrant en retour une prise à l’action et à la décision légitimes. On comprendra enfin que la disponibilité de données à la fois pertinentes et stabilisées est un point d’achoppement majeur, dans les circonstances, tant il est discutable de paramétrer un modèle de diffusion de la Covid-19 avec les paramètres de la grippe simplement parce qu’ils sont mieux connus. (shrink)
Dans un nombre croissant de domaines scientifiques - sciences de la nature, sciences humaines aussi bien que sciences des artefacts -, la simulation ne joue plus le rôle de succédané temporaire d'une théorie encore en gésine parce que non encore élaborée ; c'est-à-dire qu'elle ne joue plus systématiquement le rôle d'un modèle provisoire ou d'un schéma servant à condenser les mesures. C'est qu'elle n'a pas la nature d'un signe graphique, linguistique ou mathématique. Elle joue au contraire de plus en plus (...) le rôle d'une réplication détaillée du réel : elle est une intuition reconstruite avec justesse mais sans abstraction rationnelle et généralisante, donc sans transfiguration iconique. Une des limites de l'épistémologie dialectique de Bachelard tient à ce qu'elle ne donne pas les concepts pour penser assez distinctement ces pratiques contemporaines de simulation. C'est pourquoi l'A. propose de concevoir l'idée que la science contemporaine se développe non plus selon la seule dialectique matérialisme / rationalisme, mais selon la triade rationalisme/computationalisme/matérialisme. (shrink)
Create an account to enable off-campus access through your institution's proxy server.
Monitor this page
Be alerted of all new items appearing on this page. Choose how you want to monitor it:
Email
RSS feed
About us
Lorem ipsum dolor sit amet, consectetur adipisicing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur. Excepteur sint occaecat cupidatat non proident, sunt in culpa qui officia deserunt mollit anim id est laborum.