Intelligence artificielle : le top 20 des influenceurs français

Quelle est la place de la France dans la révolution de l’intelligence artificielle ? Découvrez-le à travers notre sélection des influenceurs français qui représente le pays dans le domaine de l’IA… 

L’intelligence artificielle est considérée par beaucoup comme la quatrième révolution industrielle. Cela ne fait aucun doute : cette technologie va transformer le monde dans lequel nous vivons au point de le rendre méconnaissable.

L’une des questions qui se posent, toutefois, est de savoir qui seront les grands gagnants et les malheureux perdants de cette métamorphose. La vapeur a fait de Londres la capitale industrielle de la planète, tandis que la troisième révolution industrielle aura profité au Japon et à la Silicon Valley.

Demain, lorsque l’IA sera devenu le principal indice de développement économique d’un pays, comment seront redistribuées les cartes ? La France pourra-t-elle conserver sa place parmi grandes puissances mondiales ? Ou risque-t-elle de voir son économie s’effondrer face à l’hégémonie de la Chine et des États-Unis ?

À travers ce dossier, découvrez 20 influenceurs français dans le domaine de l’intelligence artificielle afin de mieux comprendre quelle est la place de la France dans l’IA à l’échelle mondiale. Chercheurs, conférenciers, philosophes ou chefs d’entreprise : issus de secteur et de fonctions très diverses, les vingt acteurs que nous avons sélectionné permettent de représenter toutes les couleurs du spectre de « l’IA française » …

Quand l’intelligence artificielle questionne l’éducation

Pleins feux sur les questions qui se posent sur l’éducation à l’ère de l’intelligence artificielle, le mardi 17 décembre, au Théâtre auditorium de Poitiers, avec la Région et son Université du Futur.

Que faut-il apprendre et comment le faire, à l’heure des machines connectées et de l’intelligence artificielle ? Fidèle à la mission d’éclaireur qui lui a été assignée par la Région, l’Université du Futur met ces sujets en débat, le mardi 17 décembre à Poitiers.
« Ce qu’on appelle la quatrième révolution industrielle va changer la vie de tout le monde. Nous devons réfléchir à l’impact de ces nouvelles technologies qui vont dominer le XXIe siècle, explique son responsable, David Angevin. Sera-t-il utile de continuer à apprendre à coder ? Que deviendront les métiers du chiffre ? Il est urgent de se poser les bonnes questions. Et d’analyser les conséquences de ce qui s’annonce comme “ un tsunami ” ».
Des pédagogues, des chercheurs, et un philosophe Le rendez-vous poitevin du 17 décembre s’inscrit dans cette volonté d’ouvrir le débat. La première séquence s’adressera aux scolaires et aux enseignants dans l’après-midi, autour de trois grands thèmes : vivre et apprendre avec les robots, l’éducation aux médias et la lutte contre les fake news, les compétences à acquérir pour réussir au XXIe siècle.
La seconde partie de cette Université du Futur sera ouverte au public, à partir de 17 h. Le journaliste et animateur de radio, David Abiker recevra notamment le philosophe Raphaël Enthoven qui s’exprimera sur la place des humanités dans le nouveau numérique. Intervention suivie d’un débat sur les défis éducatifs à relever dans le nouveau monde numérique. Un « tribunal pour les générations futures » clôturera la soirée.
Université du Futur, le mardi 17 décembre. Gratuit. Sur inscription sur le site u-futur.org. Scolaires : 14 h. Tout public : 17 h.

Source : https://www.lanouvellerepublique.fr/poitiers/quand-l-intelligence-artificielle-questionne-l-education

Artificial intelligence has learned to probe the minds of other computers

By Matthew HutsonJul. 27, 2018 , 10:35 AM

STOCKHOLM—Anyone who’s had a frustrating interaction with Siri or Alexa knows that digital assistants just don’t get humans. What they need is what psychologists call theory of mind, an awareness of others’ beliefs and desires. Now, computer scientists have created an artificial intelligence (AI) that can probe the “minds” of other computers and predict their actions, the first step to fluid collaboration among machines—and between machines and people.

“Theory of mind is clearly a crucial ability,” for navigating a world full of other minds says Alison Gopnik, a developmental psychologist at the University of California, Berkeley, who was not involved in the work. By about the age of 4, human children understand that the beliefs of another person may diverge from reality, and that those beliefs can be used to predict the person’s future behavior. Some of today’s computers can label facial expressions such as “happy” or “angry”—a skill associated with theory of mind—but they have little understanding of human emotions or what motivates us.

The new project began as an attempt to get humans to understand computers. Many algorithms used by AI aren’t fully written by programmers, but instead rely on the machine “learning” as it sequentially tackles problems. The resulting computer-generated solutions are often black boxes, with algorithms too complex for human insight to penetrate. So Neil Rabinowitz, a research scientist at DeepMind in London, and colleagues created a theory of mind AI called “ToMnet” and had it observe other AIs to see what it could learn about how they work.

ToMnet comprises three neural networks, each made of small computing elements and connections that learn from experience, loosely resembling the human brain. The first network learns the tendencies of other AIs based on their past actions. The second forms an understanding of their current “beliefs.” And the third takes the output from the other two networks and, depending on the situation, predicts the AI’s next moves.

The AIs under study were simple characters moving around a virtual room collecting colored boxes for points. ToMnet watched the room from above. In one test, there were three “species” of character: One couldn’t see the surrounding room, one couldn’t remember its recent steps, and one could both see and remember. The blind characters tended to follow along walls, the amnesiacs moved to whatever object was closest, and the third species formed subgoals, strategically grabbing objects in a specific order to earn more points. After some training, ToMnet could not only identify a character’s species after just a few steps, but it could also correctly predict its future behavior, researchers reported this month at the International Conference on Machine Learning here.

A final test revealed ToMnet could even understand when a character held a false belief, a crucial stage in developing theory of mind in humans and other animals. In this test, one type of character was programmed to be nearsighted; when the computer altered the landscape beyond its vision halfway through the game, ToMnet accurately predicted that it would stick to its original path more frequently than better-sighted characters, who were more likely to adapt.

Gopnik says this study—and another at the conference that suggested AIs can predict other AI’s behavior based on what they know about themselves—are examples of neural networks’ “striking” ability to learn skills on their own. But that still doesn’t put them on the same level as human children, she says, who would likely pass this false-belief task with near-perfect accuracy, even if they had never encountered it before.

Josh Tenenbaum, a psychologist and computer scientist at the Massachusetts Institute of Technology in Cambridge, has also worked on computational models of theory of mind capacities. He says ToMnet infers beliefs more efficiently than his team’s system, which is based on a more abstract form of probabilistic reasoning rather than neural networks. But ToMnet’s understanding is more tightly bound to the contexts in which it’s trained, he adds, making it less able to predict behavior in radically new environments, as his system or even young children can do. In the future, he says, combining approaches might take the field in “really interesting directions.”

Gopnik notes that the kind of social competence computers are developing will improve not only cooperation with humans, but also, perhaps, deception. If a computer understands false beliefs, it may know how to induce them in people. Expect future pokerbots to master the art of bluffing.

Source : https://www.sciencemag.org/news/2018/07/computer-programs-can-learn-what-other-programs-are-thinking

Concevoir un site comme celui-ci avec WordPress.com
Commencer