The following is a transcript from a talk held at FODI-days. It is incomplete but I am saving it here for future reference and possible revision later! There is a Swedish version as well at the end.
Opening
Analogization
A Counter-Image to Digitalization
I intended to speak about analogization as a sort of counter-image to digitalization and run through a few different questions. This is not a presentation in the sense that I have a very clear thesis. However, I do think there are some fun questions and threads to pull at, and I intend to do a little bit of that. You already know and can do so much regarding digitalization that talking about that would have been perilous, so I decided not to. Instead, I thought I would talk about analogization.
The Origins of Digitalization in the I Ching
We are all quite familiar with the history of digitalization. We know that it stems from the possibility of representing the world in binary ways. Leibniz is one of the first to develop the binary number system. What is a bit amusing is where he got the idea from.
Leibniz’s own idea for digitalization comes from the I Ching, one of the absolute oldest books in the world. Leibniz was very well-read and was actually also responsible for a library. He created library organization systems and was a genius in general. One of the things he did was seek out texts from different parts of the world, and one such text he found was the I Ching.
The I Ching was originally a book of divination. The book of divination works by casting either turtle shells or coins to produce a number of lines—six such lines—in a so-called hexagram. They can be broken or whole. There are 64 hexagrams, and they are 64 different possible representations of the future. Chinese statesmen and scholars used the I Ching to ask what would happen in the future. They would then receive a hexagram after casting their coins or turtle shells. The hexagram had a short text that described the future in a rather cryptic way, and then a longer text that interpreted it, still in a rather cryptic way.
The interesting thing about the I Ching as a technique—because it is a digitalization technique, one of the first digitalization techniques—is that it summarizes a very vast amount of possible outcomes, namely the world’s future, into 64 different units that are binary generated. Right there lies the essence of digitalization in a way. This act of gridding the world into a number of well-defined possibilities, structured in binary.
What is fun about the I Ching is that even today, one can actually use it with great benefit. What the I Ching does is that when you get a hexagram, you are forced to re-interpret your entire understanding of the world through that hexagram. This allows you to throw yourself out of your own mental loops where you are stuck. An extremely useful technique still. If you haven’t tried the I Ching, I recommend that you do so. Ask a question you truly care about and devote some time to trying to interpret what the hexagram says about the future. Note what happens in your head then. What happens practically is that you are forced to restructure your own understanding through the hexagram’s interpretation. That is in itself quite brilliant, because it means you can find new possibilities and see new things.
So, one of the first digital techniques that inspired Leibniz was a divination technique that divided a continuous and non-discrete future into 64 hexagrams. That is where digitalization begins to take shape. The very thought of order and structure, and that one can structure the world, is very clear.
The Spirit of Digitalization Through History
The spirit of digitalization then continues through the Enlightenment and the more reason-oriented tradition. We find it in Weber and disenchantment—when things are to be transformed into process and we gather in the “iron cage” of reason, as it is often discussed. We find it in Heidegger. Heidegger writes a great deal about how technology frames the world and makes it available through Gestell, framing in different ways. We also find it in American sociological literature. One of the books I believe is most underestimated regarding the ideology of digitalization is Daniel Bell’s The Coming of Post-Industrial Society, a fascinating little book.
If one sums it up somehow: the very dream of digitalization is an Enlightenment dream—a dream that one should be able to translate the world into a purer form somehow, a simpler form. You can take the world and transform it into ones and zeros, and suddenly you can begin to manipulate it. This is true to some extent, of course; it is perfectly correct. We can do that.
The Return of Complexity
But after we had done this for a while, and after technology had developed for a while, we ran into a problem. It is an interesting problem. What happens somewhere along the way is that we realize that this technology creates something. It has an externality. Technical progress is not cost-free but constantly generates complexity.
This complexity is truly fascinating, I think. Complexity is, I believe, one of the most under-analyzed concepts. People often somewhat carelessly use “complex systems” and the like. But I think the growth of complexity in these systems is absolutely essential to understand what happens next. This is because, to a large extent, the entire Western progression is an equation where we constantly buy welfare through innovation and technical development, but at the price of increasing complexity. Then we must take care of this complexity somehow. And what is needed then? Well, more technical progress. So then we must have more technical progress that creates more welfare and which, in turn, creates more complexity.
This is what is usually described in evolutionary theory as the Red Queen problem. The Red Queen is from Alice in Wonderland. She says at some point that this is a strange place, a place where “it takes all the running you can do to remain in the very same place.” That is exactly how it is with complexity, with technology, with development. We must continue to develop technology at an ever-higher pace to be able to manage the complex problems that technology once created. So we lock ourselves into a rather interesting circle.
This is incredibly well described in a book I can warmly recommend: The Collapse of Complex Societies by Joseph Tainter. It is a rather obscure little book, but it is very interesting. Tainter’s thesis is simply that every civilization must handle the complexity it produces through energy extraction, mining, and technical development. If one cannot do that, Tainter says, one reaches a situation where every measure taken to try to handle the complexity creates more complexity than it handles. Then one faces what Tainter calls—and this is perhaps the world’s best euphemism—”radical simplification.” And radical simplification in this case means, of course, collapse; that the whole society collapses in different ways.
Tainter describes this Red Queen situation incredibly well. What is happening with technology is that we have reached some sort of inflection point where complexity is catching up with the dream of reason, of order, of the structure that digitalization contains.
Heraclitus and Nature’s Hiding
When that happens, we must go to a completely different type of philosophy—not the one that said technology reveals the world—but we must go much further back in history to Grandfather Heraclitus. There is a wonderful fragment in Heraclitus that basically reads: “Nature loves to hide.” It has sometimes been interpreted as nature loves to conceal itself.
This is something we discover when complexity takes over digitalization in a way. When we get enough technology, it starts to become less understandable. When we get enough technology, there becomes less order, more disorder again. It is harder to tame the technology. It is harder to view these systems as systems of reason. Suddenly they begin to behave probabilistically. They collapse in entirely new, strange ways.
Heraclitus is perhaps one of the most interesting theorists for analogization as a phenomenon. Because for Heraclitus, it is the case that even when nature has been revealed, even when it has been discovered, it constantly strives to hide itself. He points to this development where nature somehow becomes more complex over time.
So it could be that we had a small window in time—Heidegger’s window—where we temporarily had a technology that could help us reveal the world. Before that, nature hid itself, and after that, nature is hiding itself again. Digitalization is an anomaly. The effects of digitalization—reason expressed in technology—are a coincidence in human history. Now we are entering a different type of hiding. The hiding we had before was based on the fact that we didn’t have the technology available and couldn’t translate nature. Now we have translated nature, but we have translated it into such complexity that it is disappearing from us again.
So this is the basic thought in the analogization theme I intended to dig into a little. We had a small period of digitalization when we could all be interested in believing that the world would become a little more reasonable. Then it disappeared with the complexity that dissolved it. Then we return to the analog. We disappear down into the analog again.
What is the Analog?
We have talked a lot about what digital means and we have analyzed it in many different ways. Analog things are interesting because there it is primarily about proportions—about how things relate to one another, not translation. In an analog system, you have different proportions that balance each other out. In an analog calculation, for example, when a system is in equilibrium and not moving, then you have the solution to the problem you have presented to the system in different ways.
This is something that is a much better description of the brain, of course. The brain works like that. The brain is an analog computer; it is not a digital computer. We have begun to discover that this is also actually something we might have to return to today, because digitalization consumes such a terribly large amount of energy. Analog computers do not do that.
An incredibly interesting paper came out in October from a number of Chinese researchers. Chinese researchers, due to geopolitical circumstances that you are surely well aware of, must try to find new ways to perform calculations since they cannot access advanced chips from Nvidia. So they are digging into all sorts of different calculation models. There is a lot of quantum computing going on there, but there is also quite a lot of analog computing going on, analog calculation techniques. What is remarkable about these analog calculation techniques is that they are up to a hundred times faster and up to a thousand times more efficient. They can do things significantly faster and better, but with less balance—there is more noise, it is messier. Therefore, this technology was abandoned before one realized that one can actually frame analog technology within digital and still get much lower energy consumption.
The Antikythera mechanism was one of the world’s first analog computers, found on the seabed off Crete, a sort of planetarium built a couple of thousand years ago. Analog computers are something we are now rediscovering and reanalyzing. So it is not just that analogization is a fun metaphor. Analogization is already deep down in the stack. If you look at the computation part of the stack, it is something that will actually be able to become really interesting. Here we also find neuromorphic chips and that type of thing which is exciting to work with.
So: We had digitalization. We ran into complexity. Complexity hid nature from us again. We must now try to understand analogization. Analogization is about proportions, it does not translate things into ones and zeros. And it is, for precisely that reason, very much more energy-efficient and in certain cases much faster. That is some sort of basic setup.
Fields of Tension in Analogization
From Black Boxes to Black Bugs We have talked a very long time about black boxes. It is a sort of notion one has in digitalization that there are problems with black boxes, and that is correct. In an analog paradigm, we probably speak rather of “black bugs”—small, organic, intentional, evolved things. It is not just about not being able to open a black box. It is about the function itself disappearing when you open the system. You can dissect a beetle, but you will not understand what life is because you do that.
This shift from black boxes to black bugs is to go from a type of static system to a type of system that has entirely different types of defenses against intervention and explanation. When we want to make Explainable AI, for example, black box models don’t help us when these AI models develop simultaneously as we study them. Instead of talking about black boxes, we should talk about black bugs—which sounds much better than “svarta kryp” (black creepy-crawlies), which sounds like something you find in the beds at a worse hotel. But this distinction is interesting. That tension will, I believe, reveal itself increasingly clearly, especially when these AI models begin to collaborate.
From Timelessness to Wear Another thing we have lost almost entirely when we describe technology is that we describe it almost entirely as timeless. Digitalization has around it some sort of spirit of timelessness and infinity. Ones and zeros are timeless. They are, like, pure in some sense. In analogization, we are much more interested in wear (slitage). Wear as a philosophical concept—what happens, how systems wear down—is insanely exciting. We install systems and then we usually talk about them “settling” (lägger sig). But “settling” just means they are old. What we should talk about is worn systems. Systems that are worn out in different ways. The people in the systems wear out. The models, the metaphors wear out. Technology wears out. Wear is a sort of fundamental analog category of analysis.
In wear, such things as death are included. When looking at AI research, for example, we have the notion that intelligence is something completely liberated from the biological and therefore also liberated from the limitations of the biological. But it may very well be—and we have also started to explore this—that death is an absolute prerequisite for intelligence. Intelligence might have to be finite for the simple reason that that is how we prioritize in the world. Our own will, our ability to prioritize between decisions, to decide when we stop looking for information and start acting—that depends on us being finite beings in some way. That finiteness, death, structures our entire experience in different ways.
Yet it exists almost nowhere in AI research. There is very little research on how death structures intelligence and how one can build artificial death—an artificial death model, for example. We would presumably need death designers for AI. That would be quite nice, for it would be a wonderful title to have on one’s business card: “I am a Death Designer.” I think it would be very interesting to ponder how one builds this type of system structured by finiteness.
Entropy is also incredibly important. All systems exhibit some sort of entropy. All systems break. And to learn how a system breaks is to learn how a system works. I think we would benefit from having many more accident investigation boards, for example. It would be fun to have a technical accident investigation board that looks at when things don’t quite work. You introduce an AI project—all these generative AI projects now. An MIT study came out saying that 90 percent of them hadn’t led to anything. But what do we do with that information? Nothing. We should have real accident investigation boards that go through and look at that type of thing. That would be fun.
And then we must also learn to think in rhythm. What types of rhythms exist in systems? How do systems develop in time? How do they exist in time? So: from the timeless digital ones and zeros existing in some sort of infinity perspective to a much more time-bound, limited, mortal, worn reality.
Agency and Will The great endpoint of digitalization is, of course, artificial intelligence. Now we haven’t just made the world into an ordered system of ones and zeros, but we have put another ordered system of ones and zeros on top of the world to understand this world of ones and zeros that we have created. Now we should finally get order and structure on things, right? Now we should perhaps be able to complete the mission of the Enlightenment?
The thing is, it doesn’t really work. And one of the reasons it doesn’t work is that we are starting to realize there are much more fundamental things in what we call intelligence that we haven’t really understood yet.
What happens if we want? Will is a weird thing. We want things all the time. It probably has to do with death, among other things—we want things because we know we are going to die. But if you start looking at it from a biological perspective, it is quite fun to figure out. Because what biology does, what evolution does, is not that it builds intelligence and then adds will at the end. That is what we are trying to do now that we have built AI—now we are building agents so we can implement will, goals, and planning, on top of these intelligent agents we have built.
No, evolution starts exactly the other way around. Evolution can solve different classes of problems. The first class of problem evolution learns to solve is generational problems. It solves problems simply by checking who survives. If you survive and reproduce, then you have solved the problem—that is the sign that one has solved the problem. But evolution discovers quite soon that it must also be able to solve sub-generational problems. It must be able to create more fine-grained, more detailed survival ability. And then evolution creates agency. That is the absolute first thing that happens. From bacteria that have no particular agency or will to organisms that have agency. Agency comes first.
It is simple to understand. If you have a small beetle that has camouflage, this beetle must want to move from a surface where the camouflage doesn’t help it to a surface where the camouflage does help it. Evolution needs agency to be able to utilize a large variation of possible survival factors. So with agency, evolution can then begin to tinker a little and say: okay, what happens if you take this agency and apply it to itself? A will applied to a will. Now it wants to want something else. Oh wow, then things happen! And then we loop it a little more and then we get intelligence. So evolution builds intelligence out of agency. It starts with agency.
You read Michael Tomasello and the other evolutionary biologists who have studied agency at the bottom. They say evolution starts with agency which is looped in toward agency, structuring agency in different ways. And when agency structures agency in a multi-level perspective, somewhere there you start getting phenomena that look intelligent. We have done it precisely ass-backwards. We have built intelligence first and now we are trying to throw on will and agency in different ways.
Here lie questions about desire and teleonomy. That is also a very big question. Here also lies perhaps one of the biggest ethical questions in the technology debate going forward. We talk about building agents but we are really just building delegates right now—we delegate our will to them. They have no will of their own. But we could, in principle, research building different types of technology that have will. But the question is if we really should do that.
David Krakauer, who is the head of the Complexity Science Institute in Santa Fe, says that we are teleonomic matter. We are things that want things. And that is a rather unusual class of things. Things that want things—there aren’t that many in the world; it is actually just us and some animals and such. But we stand before an ethical choice that is incredibly interesting. We have the possibility now to perhaps build an entirely new class of things that want things. And then we should ask ourselves the question: should we do that? Or should we stop short of true agency and say that we will not build any machines that want things, we do not want any other classes of matter in the world that want things other than us and the animals that precede us?
There lies a dividing line in the entire AI research field that is much more significant than we normally realize.
From Individual to Orchestra Digitalization has a tendency to focus on the individual in different ways. Usage uses the individual as a main model—the system individual, the customer individual, the citizen, and all such things. The individual becomes a sort of focus also for Enlightenment reason. Enlightenment reason orients itself around the individual, and the entire West orients itself around the individual as a concept. The “I” becomes incredibly important.
In analogization, one is more interested in the orchestra. One is more interested in how things work together. What role one has in relation to others, what relation, how one reacts to others in different ways. You notice this now when we try to build different types of agent networks, for example. Orchestration is one of the absolute most important new competencies emerging. The whole field of orchestration is incredibly exciting.
Now different types of roles are naturally developing. We are rediscovering different types of roles based on a purely computational metabolism. How much does it cost to generate an idea and how much does it cost to evaluate an idea? In pure energy, that is, just looking at it. It turns out it costs much more to generate ideas than to evaluate ideas. Everyone who has written something and then had someone criticize it knows that, of course.
But the metabolism is interesting because what we see then, of course, is that we will have these agent networks, these orchestras, and they will develop in such a way that corresponds to the energy metabolism underlying them. And there it will become very messy and we will change roles and the individual will play a much smaller role. What we will care about is what the orchestra can do. An orchestra that has a certain composition can perform a certain piece. An orchestra lacking violinists, for example, cannot perform those pieces. So the individual and the orchestra is another interesting field of tension to ponder.
From Global to City Digitalization is global. Digitalization and globalization—it has been said so often that one almost hears them in the head simultaneously. Digitalization, globalization. It is a standard thing one has said so many times. But analogization is not global. For global often also means placeless. Those of you who are as old as I am remember that at the end of the 90s there were a lot of books called The Death of Distance which said that now it wouldn’t matter where you were, what place existed, and so on. That has proven to be absolutely incorrect.
Analogization is much more interested in the city than the world. The city is a natural form of cohabitation that has developed, that has existed for tens of thousands of years for humans. It is the organizational form that we biologically tend toward. We have a place, a geography, we exist in a space. Technology exists in a space. In analogization, the city becomes more important than the world—the city as a symbol for a human organizational form that is much older than the nation. Thinking in terms of cities and that type of social structure is more interesting.
From Representation to Relation On a more philosophical plane: digitalization is interested in representation and analogization is interested in relations. Relations, resonance—Hartmut Rosa’s thought on how we resonate with the world. Mereology will become incredibly important. Mereology is such a thing that almost no one works with nowadays, but during the Middle Ages, it was a big thing. Mereology is the question of how one divides the world into wholes and parts. What is a whole and what is a part?
Here the thought we had about the individual returns. We believe the individual is a sensible unit of analysis. But if we say that there is no one who is an individual, that everyone is only someone in relation to someone else, then we must just talk about dyads instead, or dividuals—parts together with wholes. Mereology, the question of how to cut a system, is incredibly exciting, and just applying purely mereological methods to what one studies can often yield a great deal. The question “what is a whole and what is a part in just this?”—there I believe significantly more work will need to be done when we go back into analogization.
From Understanding to Ability In digitalization, we still have some sort of hope of understanding the world—of translating it to ones and zeros and then figuring out what those ones and zeros say about the world. Analogization may be forced to abandon that in favor of pure ability. Because the systems we use to interact with the world are becoming so complex that we can no longer explain them.
It is not just about not understanding your fridge, because there is someone somewhere in society who understands a fridge. Rather, it is about the fact that there might not be anyone anywhere who can tell us why we made certain scientific breakthroughs in microbiology. Or who can explain exactly how these scientific breakthroughs were made. Or can give us some sort of causal chain showing why a certain type of mathematical theorem now actually works.
Mathematical proofs are becoming so complex that they are almost only machine-readable now, which in turn means there are no humans who can follow them anymore. Those of you who have worked as mathematicians have surely used Lean and other types of verification tools. That is quite far from being able to read it yourself and sit down and say that this is correct—like the proof that there are infinitely many prime numbers. Any of us can understand that. But we will now have the ability to interact with prime numbers in encryption contexts in a way that is not built on the same type of understanding.
There is a growing debate now—a paper came out a week ago about incomprehensible science. What happens when science is automated? Starts running at computational speed and generating masses of results that are incredibly useful, fantastically good, give us extreme abilities—but which none of us have a clue what they actually mean or can understand. That type of question is posed in analogization rather.
What Happens After Analogization?
So those are some themes I have pondered regarding analogization. Then one must, of course, ask an unavoidable question: What happens after analogization? If we have digitalization, analogization, we go down and then we come back to Heraclitus’s situation—what happens then?
There are tons of different possibilities there. It is popular to talk about quantum physics, quantization, ecologization. One can speak of different systems working together.
Magic is a good category of analysis. Those of you who have read magic know that magic is a wonderful category of analysis. Magic is about intentions in different ways and how these intentions can be channeled and worked with. One such thing that one really ought to teach in computer systems science education is Aleister Crowley and Eliphas Lévi’s The History of Magic. Both are very good for understanding how things work.
If nothing else, one can make a very interesting distinction, I think, in systems science between magic and miracles. In the Middle Ages, one had to explain that Jesus was not a wizard. Because Jesus had actually turned water into wine. And that sounded damn Gandalf-like to be carrying on like that. So one had to make a distinction between miracles on the one hand—things that just worked because it was in accordance with the world order and God’s will—and magic, the individual person’s manipulation of different evil forces for their own well-being. There is quite a lot of belief in miracles in systems science and there is quite a lot of belief in magic. So there is a rather interesting distinction.
Ruth Millikan and the Primacy of Biology
What I believe, however, might be most useful is not to try to find a triad and see what comes after analogization, but perhaps instead to go to Ruth Millikan. Ruth Millikan is one of the philosophers whom I hope we will read much more in a hundred years than we do today. Millikan is a linguist, a philosopher of language. But she is a very interesting philosopher of language because she starts from a very simple thesis: there is no point anywhere in history where we, or anything we do, are disconnected freely from biology. Evolution is seamless.
Millikan, if she looked at this, would say that it is perfectly obvious. Analogization is nothing that was particularly hard to predict, but what it ultimately represents is the dissolution of the dichotomy between nature and technology that we have maintained for so long on artificial grounds. There is no such difference whatsoever. Technology is biology. We are biology. We must learn to understand all of this as biology as well.
Millikan’s thesis would say that digitalization and analogization are temporary forms of understanding for a phenomenon that will fundamentally always be biological. Where we must look at different types of explanatory functions like proper functions. What is the function for which just this type of tool is developed? If we can understand proper functions and use functional analysis in a biological sense, then we can also understand technology in a completely different way. Then we can understand the introduction of technology and then we can more successfully use technology in different ways.
I think Millikan is an alternative to building triads. Otherwise, it is incredibly Hegelian-tempting to try to find some synthesis of these two. The antithesis is always tempting. But if we fight our inner Hegel successfully, then perhaps instead, with Millikan, we can try to figure out if this distinction between nature and technology—which constantly makes us treat technology as a separate phenomenon—has perhaps played out its role.
Swedish version:
Analogisering
En motbild till digitaliseringen
Nicklas Lundblad
Jag tänkte prata om analogisering som en sorts motbild till digitaliseringen och gå igenom några olika frågor. Det här är ingen presentation i den meningen att jag har en väldigt tydlig tes. Däremot tycker jag att det finns en del roliga frågor och trådar att dra i, och det tänkte jag försöka göra lite grann. Ni vet och kan redan så mycket om digitaliseringen att prata om den hade varit livsfarligt, så det tänkte jag inte göra. Istället tänkte jag prata om analogiseringen.
Digitaliseringens ursprung i I Ching
Vi är alla rätt väl bekanta med digitaliseringens historia. Vi känner till att den kommer ifrån möjligheten att binärt representera världen på olika sätt. Leibniz är en av de första som utvecklar det binära talsystemet. Det som är lite roligt är var han får idén ifrån.
Leibniz egen idé till digitaliseringen kommer från I Ching, en av världens absolut äldsta böcker. Leibniz var väldigt beläst och faktiskt också ansvarig för bibliotek. Han skapade biblioteksorganisationssystem och var ett geni i största allmänhet. En av de saker han gjorde var att han letade reda på texter från olika delar av världen, och en sådan text han hittade var I Ching.
I Ching är en spådomsbok ursprungligen. Spådomsboken fungerar så att man kastar antingen sköldpaddsskal eller mynt, och så får man fram ett antal rader – sex stycken sådana rader – i ett så kallat hexagram. De kan vara brutna eller hela. Det finns 64 hexagram, och de är 64 olika möjliga representationer av framtiden. Kinesiska statsmän och forskare använde I Ching för att fråga vad som skulle hända i framtiden. De fick då ett hexagram efter att ha kastat sina mynt eller sköldpaddsskal. Hexagrammet hade en kort text som beskrev framtiden på ett rätt kryptiskt sätt, och sedan en längre text som tolkade ut den, fortfarande på ett rätt kryptiskt sätt.
Det intressanta med I Ching som teknik – för det är en digitaliseringsteknik, en av de första digitaliseringsteknikerna – är att den sammanfattar en väldigt bred mängd av möjliga utfall, nämligen världens framtid, i 64 stycken olika enheter som är binärt genererade. Redan där ligger digitaliseringsväsendet på något sätt. Det här att man rutar in världen i ett antal väldefinierade möjligheter, binärt strukturerade.
Det som är kul med I Ching är att även idag kan man faktiskt använda det med stor behållning. Vad I Ching gör är att när man får ett hexagram tvingas man tolka om hela sin egen förståelse av världen genom hexagrammet. Det gör att man kan kasta sig ur sina egna mentala loopar där man sitter fast. En extremt användbar teknik fortfarande. Om ni inte har provat I Ching så rekommenderar jag att ni gör det. Ställ någon fråga som ni verkligen bryr er om och ägna sedan tid åt att försöka tolka ut vad hexagrammet säger om framtiden. Notera vad som händer i huvudet på er då. Vad som händer praktiskt är att man tvingas strukturera om sin egen förståelse genom hexagrammets tolkning. Det är i sig rätt genialt, för det betyder att man kan hitta nya möjligheter och se nya saker.
Så en av de första digitala teknikerna som inspirerade Leibniz var en spådomsteknik som delade in en kontinuerlig och icke-diskret framtid i 64 hexagram. Där börjar digitaliseringen ta form. Själva tanken på ordning och reda och att man kan strukturera världen är väldigt tydlig.
Digitaliseringens ande genom historien
Digitaliseringens ande fortsätter sedan genom upplysningen och den mer förnuftsorienterade traditionen. Vi hittar den hos Weber och avförtrollningen – när saker och ting ska förvandlas till process och vi samlas i förnuftets järnbur, som man brukar prata om. Vi hittar den hos Heidegger. Heidegger skriver ju väldigt mycket om hur tekniken ramar in världen och ställer den till förfogande genom Gestell, framing på olika sätt. Vi hittar den även i amerikansk sociologisk litteratur. En av de böcker som jag tror är mest underskattad när det gäller digitaliseringens ideologi är Daniel Bells “Det postindustriella samhället”, en fascinerande liten bok.
Om man summerar upp det på något sätt: själva drömmen om digitaliseringen är en upplysningsdröm – en dröm om att man ska kunna översätta världen till en renare form på något sätt, en enklare form. Man kan ta världen och förvandla den till ettor och nollor och helt plötsligt kan man börja manipulera den. Det är till viss del sant förstås, det stämmer alldeles utmärkt. Det kan vi göra.
Komplexitetens återkomst
Men efter att vi hade gjort det här ett tag och efter att tekniken hade utvecklats ett tag springer vi in i ett problem. Det är ett intressant problem. Det som händer någonstans längs vägen är att vi inser att den här tekniken skapar någonting. Den har en externalitet. Det tekniska framsteget är inte kostnadsfritt utan genererar hela tiden komplexitet.
Den här komplexiteten är riktigt fascinerande tror jag. Komplexitet tror jag är ett av de mest underanalyserade begreppen. Man använder ofta lite slarvigt “komplexa system” och sådant. Men jag tror tillväxten av komplexitet i de här systemen är absolut essentiell för att förstå vad som händer sedan. Det beror på att till stor utsträckning är det så att hela det västerländska framsteget är en ekvation där vi hela tiden köper välfärd genom innovation och teknisk utveckling, men till priset av ökande komplexitet. Sedan måste vi ta hand om den här komplexiteten på något sätt. Och vad behövs då? Jo, mer tekniskt framsteg. Så då måste vi ha fler tekniska framsteg som skapar mer välfärd och som i sin tur skapar mer komplexitet.
Det här är vad man i evolutionsteorin brukar beskriva som Röda Drottningens problem. Röda Drottningen är från Alice i Underlandet. Hon säger ju vid något tillfälle att det här är en konstig plats, en plats där “it takes all the running you can do to remain in the very same place.” Precis så är det med komplexitet, med teknik, med utveckling. Vi måste fortsätta utveckla tekniken i en allt högre takt för att kunna hantera de komplexa problem som tekniken en gång har skapat. Så vi låser oss i en rätt intressant cirkel.
Det här finns oerhört väl beskrivet i en bok som jag varmt kan rekommendera: “The Collapse of Complex Societies” av Joseph Tainter. Det är en rätt obskyr liten bok men den är väldigt intressant. Tainters tes är helt enkelt att varje civilisation måste hantera den komplexitet som man producerar genom energiextraktion, utvinning och teknisk utveckling. Om man inte kan det, säger Tainter, kommer man till ett läge där varje åtgärd som man vidtar för att försöka hantera komplexiteten skapar mer komplexitet än den hanterar. Då står man inför vad Tainter kallar – och det är kanske jordens bästa eufemism – “radikal förenkling”. Och radikal förenkling i det här fallet betyder förstås kollaps, att hela samhället kollapsar på olika sätt.
Tainter beskriver den här Röda Drottning-situationen oerhört väl. Det som händer med tekniken är att vi har nått någon sorts inflektionspunkt där komplexiteten kommer ikapp drömmen om förnuftet, om ordningen, om strukturen som digitaliseringen innehåller.
Herakleitos och naturens döljande
När det händer måste vi gå till en helt annan typ av filosofi – inte den som har sagt att tekniken avslöjar världen – utan vi måste gå mycket längre tillbaka i historien till farfar Herakleitos. Det finns ett underbart fragment hos Herakleitos som i princip lyder: “naturen älskar att dölja sig”. Det har ibland tolkats som att naturen älskar att gömma sig.
Det här är något som vi upptäcker när komplexiteten tar över digitaliseringen på något sätt. När vi får tillräckligt mycket teknik börjar den bli mindre förståelig. När vi får tillräckligt mycket teknik blir det mindre ordning, mer oordning igen. Det är svårare att tämja tekniken. Det är svårare att se de här systemen som förnuftssystem. Plötsligt börjar de bete sig probabilistiskt. De kollapsar på helt nya, konstiga sätt.
Herakleitos är kanske en av de mest intressanta teoretikerna för analogiseringen som fenomen. Eftersom för Herakleitos är det så att även när naturen har avslöjats, även när den har blivit upptäckt, strävar den ständigt efter att dölja sig. Han pekar på den här utvecklingen i att naturen på något sätt blir mer komplex i tiden.
Så det skulle kunna vara så här att vi hade ett litet fönster i tiden – Heideggers fönster – där vi tillfälligt hade en teknik som kunde hjälpa oss att avslöja världen. Innan det gömde sig naturen och efter det gömmer sig naturen igen. Digitaliseringen är en anomali. Digitaliseringens effekter – förnuftet uttryckt i tekniken – är en tillfällighet i den mänskliga historien. Nu går vi in i en annan typ av döljande. Det döljande vi hade innan var baserat på att vi inte hade haft tekniken tillgänglig och inte kunnat översätta naturen. Nu har vi översatt naturen, men vi har översatt den in i en sådan komplexitet att den håller på att försvinna för oss igen.
Så det här är grundtanken i analogiseringstemat som jag tänkte gräva lite i. Vi hade en liten digitaliseringsperiod när vi allihopa kunde vara intresserade av att tro att världen skulle bli lite mer förnuftig. Sedan försvann den i och med komplexiteten som löste upp den. Då återvänder vi till det analoga. Vi försvinner ner i det analoga igen.
Vad är det analoga?
Vi har pratat mycket om vad digitalt betyder och vi har analyserat det på många olika sätt. Analoga saker är intressanta därför att där handlar det framförallt om proportioner – om hur saker och ting förhåller sig till varandra, inte översättning. I ett analogt system har man olika proportioner som balanserar ut varandra. I en analog beräkning, till exempel, när ett system är i jämvikt och inte rör sig, då har du lösningen till det problem som du har presenterat för systemet på olika sätt.
Det här är någonting som är en mycket bättre beskrivning av hjärnan förstås. Hjärnan fungerar ju så. Hjärnan är en analog dator, den är inte en digital dator. Det har man börjat upptäcka är också faktiskt någonting som vi kanske måste återvända till idag, därför att digitaliseringen tar så fruktansvärt mycket energi. Analoga datorer gör ju inte det.
Det kom ett otroligt intressant papper i oktober från ett antal kinesiska forskare. Kinesiska forskare, på grund av geopolitiska omständigheter som ni säkert väl vet, måste försöka hitta nya sätt att göra beräkningar eftersom de inte får tillgång till de avancerade chipsen från Nvidia. Så de gräver sig ner i alla möjliga olika typer av beräkningsmodeller. Det finns mycket quantum computing som pågår där, men det finns också rätt mycket analog beräkning som pågår, analoga beräkningstekniker. Det som är anmärkningsvärt med de här analoga beräkningsteknikerna är att de är upp till hundra gånger snabbare och upp till tusen gånger mer effektiva. De kan göra saker och ting väsentligt mycket snabbare och bättre, men med mindre balans – det är mer brus, det är mer rörigt. Därför har man övergett den här tekniken innan man insåg att man faktiskt kan rama in analog teknik i digital och fortfarande få mycket mindre energiåtgång.
Antikythera-mekanismen var en av världens första analoga datorer som man hittade på botten utanför Kreta, en sorts planetarium som byggdes för ett par tusen år sedan. Analoga datorer är något som vi nu håller på att återupptäcka och återanalysera. Så det är inte bara så att analogiseringen är en rolig metafor. Analogiseringen är redan djupt ner i stacken. Om man tittar på beräkningsdelen av stacken är det någonting som faktiskt kommer att kunna bli riktigt intressant. Här hittar vi också neuromorfa chips och den typen av saker som är spännande att hålla på med.
Så: vi hade digitalisering. Vi sprang in i komplexitet. Komplexiteten dolde naturen för oss igen. Vi måste nu försöka förstå analogiseringen. Analogiseringen handlar om proportioner, den översätter inte saker till ettor och nollor. Och den är, just av det skälet, väldigt mycket mer energieffektiv och i vissa fall mycket snabbare. Det är någon sorts grundupplägg.
Spänningsfält i analogiseringen
Från svarta lådor till svarta kryp
Vi har pratat väldigt mycket om svarta lådor. Det är en sorts föreställning som man har i digitaliseringen att det finns problem med svarta lådor, och det är riktigt. I ett analogt paradigm talar vi nog snarare om svarta kryp – små, organiska, intentionella, evolverade saker. Det handlar inte bara om att man inte kan öppna en svart låda. Det handlar om att själva funktionen försvinner när man öppnar systemet. Du kan dissekera en skalbagg men du kommer inte förstå vad liv är för att du gör det.
Det här med att gå från svarta lådor till svarta kryp är att gå från en typ av statiska system till en typ av system som har helt andra typer av försvar mot ingrepp och förklaringar. När vi vill göra Explainable AI till exempel hjälper inte black box-modellerna oss när dessa AI-modeller utvecklas samtidigt som vi studerar dem. Vi borde istället för att tala om black boxes tala om black bugs – vilket låter mycket bättre än “svarta kryp”, som låter som någonting man hittar på ett sämre hotell i sängarna. Men den här distinktionen är intressant. Den spänningen kommer, tror jag, att visa sig allt tydligare, särskilt när de här AI-modellerna börjar samarbeta.
Från tidlöshet till slitage
En annan grej som vi har tappat nästan helt när vi beskriver teknik är att vi beskriver den nästan helt som tidlös. Digitaliseringen har runt sig någon sorts anda av tidlöshet och oändlighet. Ettorna och nollorna är tidlösa. De är liksom rena i någon mening. I analogiseringen är vi mycket mer intresserade av slitage. Slitage som filosofiskt begrepp – vad som händer, hur system slits – är vansinnigt spännande. Vi installerar system och så brukar vi prata om att de “lägger sig”. Men “lägger sig” betyder bara att de är gamla. Det vi borde prata om är slitna system. System som på olika sätt slits ut. Människorna i systemen slits ut. Modellerna, metaforerna slits ut. Tekniken slits ut. Slitage är en sorts grundläggande analog analyskategori.
I slitage ingår ju sådana saker som döden. När man tittar till exempel på AI-forskningen har vi föreställningen om att intelligens är något som är helt befriat från det biologiska och därför också befriat från det biologiskas begränsningar. Men det kan mycket väl vara så – och det har vi också börjat utforska – att döden är en absolut förutsättning för intelligens. Intelligens kanske måste vara ändlig av det enkla skälet att det är så vi prioriterar i världen. Vår egen vilja, vår förmåga att prioritera mellan beslut, att bestämma oss för när vi slutar leta information och börjar handla – den beror av att vi är ändliga varelser på något sätt. Den ändligheten, döden, strukturerar hela vår erfarenhet på olika sätt.
Ändå finns det nästan ingenstans i AI-forskningen. Det finns väldigt lite forskning om hur döden strukturerar intelligensen och hur man kan bygga artificiell död – en artificiell dödsmodell till exempel. Vi skulle ju förmodligen behöva dödsdesigners för AI. Det skulle vara rätt trevligt, för det vore en underbar titel att ha på sitt visitkort: “Jag är dödsdesigner.” Jag tror det skulle vara väldigt intressant att fundera på hur man bygger den här typen av system som struktureras av ändlighet.
Entropi är också otroligt viktigt. Alla system uppvisar någon sorts entropi. Alla system går sönder. Och att lära sig hur ett system går sönder är att lära sig hur ett system fungerar. Jag tror att vi skulle må bra av att ha mycket fler haverikommissioner till exempel. Det skulle vara kul att ha en teknisk haverikommission som tittar på när saker och ting inte riktigt fungerar. Du inför ett AI-projekt – alla de här generativa AI-projekten nu. Det kom ju en MIT-studie som sa att 90 procent av dem hade inte lett till någonting. Men vad gör vi med den informationen? Ingenting. Vi borde ju ha riktiga haverikommissioner som går igenom och tittar på den typen av saker. Det vore roligt.
Och sedan måste vi också lära oss att tänka i rytm. Vilka typer av rytmer finns det i system? Hur utvecklas system i tid? Hur existerar de i tid? Så: ifrån de tidlösa digitala ettorna och nollorna som existerar i något sorts oändlighetsperspektiv till en mycket mer tidsbunden, begränsad, dödlig, sliten verklighet.
Agens och vilja
Det stora slutpunkten med digitaliseringen är ju artificiell intelligens. Nu har vi inte bara gjort världen till ett ordnat system av ettor och nollor utan vi har satt ett annat ordnat system av ettor och nollor ovanpå världen för att förstå den här världen av ettor och nollor som vi har skapat. Nu borde vi väl äntligen få ordning och reda på saker och ting? Nu borde vi väl kanske kunna slutföra upplysningens uppdrag?
Grejen är att det fungerar ju inte riktigt. Och en av anledningarna till att det inte fungerar är att vi börjar inse att det finns mycket mer grundläggande saker i det som vi kallar intelligens som vi inte riktigt har förstått ännu.
Vad händer om vi vill? Vilja är en skum grej. Vi vill saker hela tiden. Det har förmodligen att göra med döden bland annat – vi vill saker därför att vi vet att vi ska dö. Men börjar man titta på det från ett biologiskt perspektiv så är det ju rätt kul att klura ut. För det biologin gör, det evolutionen gör, är inte att den bygger intelligens och sedan lägger den till vilja på slutet. Det är ju det vi försöker göra nu när vi har byggt AI – nu bygger vi agenter så vi ska implementera vilja, goals and planning, ovanpå de här intelligenta agenterna som vi har byggt.
Nej, evolutionen börjar precis tvärtom. Evolutionen kan lösa olika klasser av problem. Första klassen av problem som evolutionen lär sig att lösa är generationella problem. Den löser problem genom att kolla vilka som överlever helt enkelt. Om du överlever och fortplantar dig då har du löst problemet – det är tecknet på att man har löst problemet. Men evolutionen upptäcker rätt snart att den också måste kunna lösa subgenerationella problem. Den måste kunna skapa mer fingransig, mer detaljerad överlevnadsförmåga. Och då skapar evolutionen agens. Det är det absolut första som händer. Från bakterier som inte har någon särskild agens eller vilja till organismer som har agens. Agens kommer först.
Det är enkelt att förstå. Om du har en liten skalbagg som har kamouflage så måste den här skalbagggen vilja röra sig från en yta där kamouflaget inte hjälper den till en yta där kamouflaget hjälper den. Evolutionen behöver agens för att kunna utnyttja en stor variation av möjliga överlevnadsfaktorer. Så med agensen kan evolutionen sedan börja mäcka lite och säga: okej, vad händer om man tar den här agensen och applicerar på sig själv? En vilja som appliceras på en vilja. Nu vill den vilja någonting annat. Åh wow, då händer det grejer! Och sedan loopar vi det lite till och då får vi intelligens. Så evolutionen bygger intelligens ur agens. Den börjar med agensen.
Man läser Michael Tomasello och de andra evolutionsbiologerna som har studerat agens i botten. De säger att evolutionen börjar med agens som loopas in mot agens, strukturerar agens på olika sätt. Och när agens strukturerar agens i ett mångnivåperspektiv, då någonstans börjar man få fenomen som ser intelligenta ut. Vi har gjort precis ass backwards. Vi har byggt intelligens först och nu försöker vi slänga på vilja och agens på olika sätt.
Här finns frågor om begär och teleonomi. Det är också en väldigt stor fråga. Här finns också en av de kanske största etiska frågorna i teknikdebatten framöver. Vi pratar om att bygga agenter men vi bygger egentligen bara delegater just nu – vi delegerar vår vilja till dem. De har ingen egen vilja. Men vi skulle principiellt sett kunna forska i att bygga olika typer av teknik som har vilja. Men det är frågan om vi verkligen ska göra det.
David Krakauer som är chef på Komplexitetsforskningsinstitutet i Santa Fe säger att vi är teleonomisk materia. Vi är saker som vill saker. Och det är en rätt ovanlig klass av saker. Saker som vill saker finns det inte så många i världen – det är faktiskt bara vi och lite djur och sådant. Men vi står inför ett etiskt val som är otroligt intressant. Vi har möjligheten att nu kanske bygga en helt ny klass av saker som vill saker. Och då borde vi ställa oss frågan: bör vi göra det? Eller ska vi stanna short of true agency och säga att vi kommer inte bygga några maskiner som vill saker, vi vill inte ha några andra klasser av materia i världen som vill saker än oss och de djur som föregår oss?
Där finns en skiljelinje i hela AI-forskningen som är mycket mer betydelsefull än vad vi normalt inser.
Från individ till orkester
Digitaliseringen har en tendens att fokusera på individen på olika sätt. Användningen använder individen som en huvudmodell – systemets individ, kundindividen, medborgaren och alla sådana saker. Individen blir en sorts fokus också för upplysningsförnuftet. Upplysningsförnuftet orienterar sig kring individen och hela västerlandet orienterar sig kring individen som begrepp. Jaget blir otroligt viktigt.
I analogiseringen är man mer intresserad av orkestern. Man är mer intresserad av hur saker och ting fungerar ihop. Vilken roll man har i förhållande till andra, vilken relation, hur man reagerar på andra på olika sätt. Det här märker ni nu när vi försöker bygga olika typer av agentnätverk till exempel. Orkestrering är en av de absolut viktigaste nya kompetenserna som växer fram. Hela fältet orkestrering är otroligt spännande.
Nu håller det på att naturligt utvecklas olika typer av roller. Man återupptäcker olika typer av roller som är baserade på en rent beräkningsmässig metabolism. Hur mycket kostar det att generera en idé och hur mycket kostar det att utvärdera en idé? I ren energi, alltså bara om man tittar på det. Det visar sig att det kostar mycket mer att generera idéer än att utvärdera idéer. Det vet alla som har skrivit någonting och sedan har haft någon som kritiserat det förstås.
Men metabolismen är intressant för vad vi ser då förstås är att vi kommer att ha de här agentnätverken, de här orkestrarna, och de kommer att utvecklas på ett sådant sätt som motsvarar den energimetabolism som underligger dem. Och där kommer det att bli väldigt rörigt och vi kommer att förändra roller och individen kommer att spela en mycket mindre roll. Det vi kommer att bry oss om är vad orkestern kan göra. En orkester som har en viss sammansättning kan framföra ett visst stycke. En orkester som saknar violinister kan till exempel inte framföra de styckena. Så individen och orkestern är ett annat intressant spänningsfält att fundera på.
Från global till stad
Digitalisering är global. Digitalisering och globalisering – det har sagts så ofta att man nästan hör dem i huvudet samtidigt. Digitalisering, globalisering. Det är en standardgrej som man har sagt så många gånger. Men analogiseringen är inte global. För global betyder också ofta platslös. De av er som är lika gamla som jag kommer ihåg att i slutet av 90-talet var det en massa böcker som hette “The Death of Distance” som sa att nu skulle det inte spela någon roll var man var, vilken plats som fanns och så vidare. Det där har visat sig vara absolut felaktigt.
Analogiseringen är mycket mer intresserad av staden än världen. Staden är en naturlig samlevnadsform som har utvecklats, som har funnits i tiotusentals år för människor. Det är den organisationsform som vi rent biologiskt tenderar till. Vi har en plats, en geografi, vi existerar i ett rum. Teknik existerar i ett rum. I analogiseringen blir staden viktigare än världen – staden som symbol för en mänsklig organisationsform som har varit mycket äldre än nationen. Att tänka i termer av städer och den typen av sociala strukturer är mer intressant.
Från representation till relation
På ett mer filosofiskt plan: digitaliseringen är intresserad av representation och analogiseringen är intresserad av relationer. Relationer, resonans – Hartmut Rosas tanke på hur vi samljuder med världen. Mereologi kommer att bli oerhört viktigt. Mereologi är en sådan grej som nästan ingen håller på med nuförtiden, men under medeltiden var det en stor grej. Mereologi är frågan om hur delar man upp världen i helheter och delar. Vad är en helhet och vad är en del?
Här återkommer den tanke vi hade med individen. Vi tror att individen är en vettig analysenhet. Men om vi säger att det inte finns någon som är en individ, att alla bara är någon i relation till någon annan, då måste vi bara prata om dyader istället, eller divider – delar tillsammans med helheter. Mereologi, frågan hur man skär ett system, är otroligt spännande och bara att tillämpa rent mereologiska metoder på det man studerar kan ofta ge väldigt mycket. Frågan “vad är en helhet och vad är en del i just det här?” – där tror jag att det kommer att behövas göras väsentligt mycket mer när vi går tillbaka in i analogiseringen.
Från förståelse till förmåga
I digitaliseringen har vi fortfarande någon sorts förhoppning om att förstå världen – att översätta den till ettor och nollor och sedan klura ut vad de ettorna och nollorna säger om världen. Analogiseringen kan tvingas överge det till förmån för ren förmåga. Därför att systemen som vi använder för att interagera med världen blir så komplexa att vi inte längre kan förklara dem.
Det handlar inte bara om att man inte förstår sin kyl, för det finns ju någon någonstans i samhället som förstår en kyl. Utan det handlar om att det kanske inte kommer att finnas någon någonstans som kan berätta varför vi gjorde vissa vetenskapliga genombrott i mikrobiologin. Eller som kan förklara exakt hur de här vetenskapliga genombrotten gjordes. Eller kan ge oss någon sorts kausal kedja som visar varför en viss typ av matematiskt teorem nu faktiskt fungerar.
Matematiska bevis håller på att bli så komplexa att de nästan bara är maskinläsbara nu, vilket i sin tur betyder att det inte finns några människor som kan följa dem längre. De av er som har jobbat som matematiker har säkert använt Lean och andra typer av verifieringsverktyg. Det är ju rätt långt ifrån att kunna läsa själv och sätta sig och säga att det här stämmer – som beviset för att det finns oändligt många primtal. Det kan vem som helst av oss förstå. Men vi kommer nu ha förmåga att interagera med primtal i krypteringssammanhang på ett sätt som inte bygger på samma typ av förståelse.
Det finns en växande debatt nu – det kom ut ett papper för en vecka sedan om oförståelig vetenskap. Vad händer när vetenskapen automatiseras? Börjar gå i computational speed och generera massor av resultat som är oerhört användbara, fantastiskt bra, ger oss extrema förmågor – men som ingen av oss har en aning om vad de egentligen innebär eller kan förstå. Den typen av frågor ställs i analogiseringen snarare.
Vad händer efter analogiseringen?
Så det är några teman som jag funderat på när det gäller analogiseringen. Sedan måste man förstås ställa en oundviklig fråga: Vad händer efter analogiseringen? Om vi har digitaliseringen, analogiseringen, vi går ner och så kommer vi tillbaka till Herakleitos situation – vad händer då?
Det finns massor av olika möjligheter där. Det är populärt att prata om kvantfysik, kvantisering, ekologisering. Man kan tala om olika system som arbetar ihop med varandra.
Magi är en bra analyskategori. De av er som har läst magi vet att magi är en underbar analyskategori. Magi handlar om intentioner på olika sätt och hur de här intentionerna kan kanaliseras och arbetas med. En sådan grej som man egentligen borde lära ut på datorsystemvetenskaplig utbildning är Aleister Crowley och Eliphas Lévis “The History of Magic”. Båda är väldigt bra för att förstå hur saker fungerar.
Om inte annat kan man göra en väldigt intressant distinktion, tror jag, i systemvetenskapen mellan magi och mirakler. På medeltiden var det så att man var tvungen att förklara att Jesus inte var en trollkarl. För Jesus hade ju faktiskt förvandlat vatten till vin. Och det lät ju jävligt Gandalf-aktigt att hålla på så. Så man var tvungen att göra en distinktion mellan mirakler å ena sidan – saker som bara fungerade därför att det var i enlighet med världsordningen och Guds vilja – och magi, den enskilda personens manipulerande av olika onda krafter för sitt eget välbefinnande. Det finns rätt mycket tro på mirakler i systemvetenskapen och det finns rätt mycket tro på magi. Så där finns en rätt intressant distinktion.
Ruth Millikan och biologins primat
Vad jag däremot tror kanske är mest användbart är inte att försöka hitta en triad och se vad som kommer efter analogiseringen, utan kanske istället att gå till Ruth Millikan. Ruth Millikan är en av de filosofer som jag hoppas att vi om hundra år läser mycket mer än vad vi gör idag. Millikan är en språkvetare, språkfilosof. Men hon är en väldigt intressant språkfilosof därför att hon utgår från en väldigt enkel tes: det finns ingen punkt någonstans i historien där vi, eller något av det vi gör, kopplas fritt ifrån biologin. Evolutionen är sömlös.
Millikan, om hon tittade på det här, skulle säga att det är fullständigt självklart. Analogiseringen är ingenting som var särskilt svårt att förutsäga, utan vad den ytterst representerar är upplösningen av dikotomin mellan natur och teknik som vi så länge upprätthållit på artificiell grund. Det finns ingen sådan skillnad överhuvudtaget. Teknik är biologi. Vi är biologi. Vi måste lära oss att förstå allt detta som biologi också.
Millikans tes skulle säga att digitalisering och analogisering är tillfälliga förståelseformer för ett fenomen som i grunden alltid kommer att vara biologiskt. Där vi måste titta på olika typer av förklaringsfunktioner som proper functions. Vad är den funktion för vilken just den här typen av verktyg utvecklas? Om vi kan förstå proper functions och använda funktionsanalys i biologisk mening så kan vi också förstå tekniken på ett helt annat sätt. Då kan vi förstå införandet av tekniken och då kan vi mer framgångsrikt använda tekniken på olika sätt.
Jag tror att Millikan är ett alternativ till att bygga triader. Annars är det ju oerhört hegelianskt frestande att försöka hitta någon syntes av de här två. Antitesen är alltid frestande. Men om vi bekämpar vår inre Hegel framgångsrikt så kanske vi istället med Millikan kan försöka klura ut om den här distinktionen mellan natur och teknik – som hela tiden gör att vi behandlar tekniken som ett särfenomen – kanske har spelat ut sin roll.


