L'artiste qui a fait parler les ordinateurs | Gymnastique | ARTE
On a tendance à l’oublier mais derrière nos vidéos de chat ou nos e-mails, l’informatique, c’était avant tout un tas de lignes de code… Que faire de tous ces zéros et ces uns ? Comment s’y retrouver dans cette jungle binaire ? En 1984, quelqu’un a trouvé la solution pour s’approprier c
Technologies Incroyables du Futur Que Tu Devrais Connaître
Aujourd'hui vous allez découvrir des technologies futuristes, dont beaucoup sont encore inconcevables. Préparez-vous à voir un robot Avatar, un puissant camion intelligent et même une intelligence artificielle similaire à l'Homme. C'est parti!
ROBOT AVATAR
SPACE BALLON
AVION ZEVA AERO
STARLINE 3D
SCATE MODULAIRE CITROEN
HU. MAN.IA IA PERSONALISEE
TROMBIA NETTOYEUR ROBOT
REVIIV CONTRE LES DOULEURS ARTICULATIONS
ELMOS CAPTEUR VISUEL R.V.
Voici un vrai ordinateur quantique (c'est dingue)
4,49 M d’abonnés
<__slot-el>
28 k
Partager
Enregistrer
580 080 vues 30 juin 2023 #41 des Tendances
Voici un ordinateur quantique, on va en voir un pour de vrai, merci à Alice et Bob pour l'accueil.
https://fr.linkedin.com/company/alice...
/ @stream_theory La nouvelle collection Biome dispo ici (merci à tous) https://biomeskateboard.fr/
Montage FX : / jimwild3 Ecriture : / lesrecapsdumonde Illustration : https://bit.ly/2o1bwwM
Mon matos : Caméra : http://amzn.to/2oBOE9n
Objectif : http://amzn.to/2pbhj2T
Micro : http://amzn.to/2oZYSBg
Le micro cravate qui sauve des vies : http://amzn.to/2oql44s
Eclairage : http://amzn.to/2pbu91k
Trépied : http://amzn.to/2pbiVtl
Les ordinateurs ont-ils des préjugés ? | 42, la réponse à presque tout | ARTE4 mai 2022 #ARTE #IA #Sciences
Autant ne pas se voiler la face : tout le monde a des préjugés. Qu’il s’agisse de pourvoir un poste, d’octroyer un crédit ou de prononcer une peine de prison, comment avoir la certitude de prendre des décisions rationnelles ? Ne serait-il pas plus sage de s’en remettre à l’intelligence artificielle, technologie déjà déployée dans de nombreux cas avec des résultats surprenants ? "42 - La réponse à presque tout" est la série documentaire scientifique d'ARTE. Clin d’œil au Guide du voyageur galactique de Douglas Adams dans lequel le nombre 42 apporte la réponse ultime, elle décortique des questions existentielles, et a réponse à tout... ou presque. 👉 Un nouvel épisode tous les samedis à 17h ! Série documentaire scientifique (Allemagne, 2021, 28mn) disponible jusqu'au 21/05/2023 #IA
Les premières initiatives sont apparues fin des année 60, début 70 aux Etats Unis mais aussi en Europe en Grande Bretagne et en France.
Non, on ne fête pas les 30 ans d'internet
Le 12 mars 1989, Tim Berners-Lee créait le web.
Trente ans plus tard, beaucoup confondent son invention
avec internet. Franceinfo vous aide à faire la différence.
Internet, c'est le réseau physique
Pour dire les choses simplement, internet désigne un gigantesque réseau d'ordinateurs et de serveurs connectés entre eux. "C'est d'ailleurs de là que vient son nom : internet est la contraction d''interconnected network', réseau interconnecté en anglais", note Le Figaro. C'est donc "l'infrastructure informatique", comme l'explique à franceinfo Jean-François Abramatic, ancien président du World Wide Web Consortium.
Internet est né le 29 octobre 1969, quand des scientifiques de l'université de Californie à Los Angeles, dirigés par Leonard Kleinrock, tentent d'échanger des données entre deux ordinateurs. Premier objectif : taper trois lettres ("LOG") et les envoyer (sous forme binaire) à la deuxième machine qui doit les compléter pour former le mot "LOGIN".
Le scientifique Leonard Kleinrock, l'un des inventeurs d'internet, pose devant les infrastructures utilisées dans les années 1960 et 1970 pour connecter les ordinateurs à l'ARPANET. (LEONARD KLEINROCK)
C'est la naissance du réseau Arpanet, financé par l'Advanced Research Projects Agency (ARPA), une organisation du département américain de la Défense. Quatre ordinateurs forment le premier noyau d'Arpanet, réseau universitaire et militaire considéré comme le père d'internet, qui passe de 13 ordinateurs en 1970 à 213 en 1981.
"Aujourd'hui, c'est l'anniversaire d'internet !" Vous entendrez peut-être cette phrase, mardi 12 mars, mais elle est inexacte. En effet, ce n'est pas internet qui a été créé il y a 30 ans, le 12 mars 1989, mais le "World Wide Web". C'est en tout cas ce jour-là que le Britannique Tim Berners-Lee a présenté son projet de partage de données à son supérieur hiérarchique au Cern, à Genève. Car attention, le web et internet ne désignent pas la même chose. On vous explique.
mais c'est l'anniversaire du web
Le web a été créé le 12 mars 1989 au sein du Cern, l'Organisation européenne pour la recherche nucléaire. Ce jour-là, le physicien britannique Tim Berners-Lee propose à sa hiérarchie un "système de gestion décentralisée de l'information". Objectif : trouver des informations sur les travaux d'un chercheur, une technologie, un projet précis, alors que toutes sont liées sans être stockées au même endroit.
A l'époque, les premières pages web étaient austères : de simples écrans
blancs ou gris avec du texte vaguement mis en forme et les fameux liens
cliquables", décrit franceinfo dans un article. Le tout premier site est d'ailleurs toujours disponible à cette adresse. Une page blanche, avec quelques lignes et plusieurs liens, qui pose déjà l'ambition encyclopédiste du web.
INTELLIGENCE ARTIFICIELLE
“Il faut réguler les usages, mais ne pas mettre la science à l’arrêt pour autant.”
Jean Ponce
Professeur à l’École Normale Supérieure (ENS) et directeur scientifique de l’institut de recherche en intelligence artificielle PRAIRIE
Spécialiste de la recherche fondamentale en image de synthèse, computer vision et machine learning, Jean Ponce est professeur du département de sciences informatiques de l’Ecole Normale Supérieure (ENS) et directeur scientifique de l’institut de recherche en intelligence artificielle PRAIRIE (CNRS, Inria, Institut Pasteur, PSL et Université Paris Cité).
On a vu depuis début 2023 beaucoup d’exemples d’IA générative relativement impressionnants, du moins pour le grand public : comment expliquer de tels progrès ?
En matière d’IA générative, il faut distinguer tout ce qui touche au langage, et ce qui touche aux images. Sur le texte, les innovations comme ChatGPT sont liées en partie à une vaste avancée scientifique. En 2017, Google a introduit les Transformers, une nouvelle architecture des réseaux de neurones qui se prête très bien à l’entraînement automatique du langage par rapport aux réseaux cognitifs et aux modèles de deep learning qu’on avait jusqu’alors. C’est une architecture dans laquelle on peut cueillir un contexte non pas localement, mais au global, dans un texte. Une véritable avancée scientifique, qui permet d’entraîner une IA sur d’immenses bases de données.
Du point de vue des images, on a vu apparaître de nouveaux modèles de diffusion. On prend une quantité importante d’images, puis on essaye d’apprendre un modèle de distribution de ces images, de telle sorte qu’à partir des images que l’on a vues, on puisse créer une nouvelle image tout en sortant de cette distribution de départ.
Ce qui est frappant dans ces modèles, ce n’est pas seulement le fait que l’on obtienne des bouts d’images réalistes, mais de regarder comment un système se souvient plus ou moins bien des éléments d’une image. On va montrer 500 millions d’images à une intelligence artificielle, et c’est très difficile de savoir ce que le système a retenu de cette base de données.
CLOUD COMPUTING
“Le cloud permet de rendre l’intelligence artificielle accessible à tous.”
Hélène Bringer-GarlainDirectrice Secteur Public, Défense & Santé d’Eviden
Experte de l’industrie informatique depuis 25 ans, Hélène Bringer-Galand dispose d’une vision globale rare du secteur IT et de son évolution. Elle est directrice secteur public, défense & santé chez Eviden, une des filiales d’Atos France.
Côté technologie, quelles innovations sont encore à attendre du cloud ?
Le marché du cloud compte aujourd’hui davantage d’acteurs - et plus seulement les hyper-scalers historiques - donc nécessairement, les innovations se multiplient. Nous assistons à une montée de la chaîne de valeur avec le développement des services Data, PaaS (pour plateforme as a service) et SaaS (software as a service).
Les stratégies dites de “cloud hybride” (alliant des environnements publics et privés) et “multi-cloud” amènent également leur lot d’innovations : création d’outils permettant un fonctionnement “transparent” dans des environnements multiples, mise au point de stratégies de placement pilotées par la donnée, sa sensibilité et par les besoins métiers…
Par ailleurs, la cybersécurité - avec des enjeux de chiffrement des données, de protection des identités et des accès - mais aussi la souveraineté numérique, permettent des innovations notamment au niveau de l’interopérabilité des services. Il est vrai que l’interopérabilité du cloud reste encore embryonnaire, mais des acteurs comme 3DS Outscale, commencent à proposer des solutions.
DATA
“La compréhension mathématique est largement à la traîne derrière des avancées algorithmiques qui, elles, sont très rapides.”
Stéphane Mallat
Chercheur et mathématicien, professeur au collège de France
Chercheur et mathématicien, professeur au Collège de France, Stéphane Mallat fut dans l’Hexagone l’un des pionniers du monde de la data. Depuis les années 80, il s’attache à comprendre le fonctionnement des algorithmes, et la façon dont ils traitent les données.
Comment les évolutions du Big Data et de l’IA ont-elles changé la façon dont les spécialistes des données travaillent aujourd’hui ?
Il y a eu une vraie discontinuité. Ces algorithmes non-linéaires sur des données de grande dimension posent des questions beaucoup plus complexes. La compréhension mathématique est largement à la traîne derrière les avancées algorithmiques qui, elles, sont très rapides.
Disons qu’avant, les algorithmes étaient souvent basés sur des informations à priori. On regardait le problème, puis les données en détails, on essayait de comprendre quel serait le meilleur algorithme, et on le testait. Quand on développe un algorithme d’apprentissage, il y a une phase beaucoup plus expérimentale où l’on teste plusieurs algorithmes, jusqu’à ce que les performances soient satisfaisantes sur des données de tests.
Alors que l’on ajustait deux ou trois paramètres, il faut maintenant optimiser des centaines de millions de variables, pour approximer des fonctions en grande dimension. Cela met en jeu de nombreuses branches des mathématiques au-delà des statistiques : les probabilités, l’analyse harmonique, la géométrie, l’optimisation… Ces questions sont au centre de l'intelligence artificielle.
TECHNOLOGIES
IMMERSIVES
“Les technologies immersives doivent encore convaincre de leur utilité.”
Lætitia Bochud
Présidente d’XR4Europe
Laetitia Bochud est Présidente d’XR4Europe. Cette association qui fédère les professionnels de la réalité virtuelle, est née suite au programme de la Commission européenne XR4ALL en 2019.
Pourquoi les premiers usages des technologies immersives restent-ils cantonnés au divertissement et au marketing ?
En se renommant Meta en 2021, Facebook a vulgarisé et galvaudé le terme “métavers”. Il n’existe pas un, mais des métavers, car il n’y a pas d’interopérabilité entre toutes les plateformes. Pour l’instant, les usages sont principalement tournés vers le divertissement, les formations - notamment pour des thérapies médicales numériques, l’e-sport…
Le développement de nouveaux usages est une question générationnelle. L’acculturation de certaines générations, qui aujourd’hui détiennent des postes à responsabilité pour l’intégration de ces outils à l’activité de leurs entreprises, est en cours. Les technologies immersives doivent encore convaincre de leur utilité. Il y a des préjugés persistants, comme le fait d’avoir la nausée en utilisant un casque de réalité virtuelle, par exemple. Or, si le contenu est bien calibré, il n’y a pas de sentiment d’inconfort !
La Revue 2023-24, c'est un condensé de toutes les connaissances, grandes tendances et signaux faibles de l'innovation numérique, analysés par les 1 000 adhérents et experts de Cap Digital.
Basic Ideas of Artificial Intelligence
(5/5, 6 votes)
A part of computer science that focuses on the formation of machines, having intelligence and capability to react and work like humans, is called the Artificial Intelligence (AI).
The Recent Transformation to the World
Had people back in ancient time known about the recent developments in the world, they would’ve longed for surviving till they could see the astonishing creations that were to happen to the globe.When we ponder upon this we often feel so saddened by their difficult way of life. Not to feel so proud, our upcoming generations would be feeling the same for us predicting the development the world will be instilled in fifty years later. That’s in fact a long-term estimation. Everything is morphing into a new shape showing a way better performance with each passing hour. Needless to say, the area being discussed is none other than AI- the Artificial Intelligence.
Human Intelligences and AI
When the advanced processes of human intelligence such as learning, reasoning and self-correction are simulated by machines, the theory is known as the Artificial Intelligence. For example, the systems like machine vision and speech recognition are all part and parcel of AI.
Artificial Intelligence Today
When we talk about AI, the first thing coming to our minds is either a sentient machine ora responsive robot. However, it’s much more to it. AI is today the fulcrum of scientific industry and the world of invention and development. It’s what every other person is having an access to, for instance in their phone, like S Voice or Siri, when our phone does quick tasks for us without us having to move our hand and our phone only from our verbal instruction works on our command and does the job for us in no time. It was recently announced by the Android makers that S voice soon would be able to book our beauty salon appointments, make our restaurant reservations and get our air tickets online. Isn’t it all amazing forlife is becoming so much easier? Easy is the word that man has always chased since ages. Washing machines were created for easy cleaning; radio for easy access to information; cars and airplanes for easy transportation and computers and internet for easy dating (all joking aside, easy calculation and information processing being one of the primary purposes).
How did artificial intelligence happen to the world?
Coming back to the topic, AI is a result of massive research and a plethora of structured data which has taken years of work. We get the machines do the chores for us just by investing our money which is totally worth the relief and luxury. Now that there are robots, self-driving cars, thinking machines, the world is reaching the peak of advancements. Well, at the same time this notion is not true and is rather a matter of complacency for any sane minded person who can predict the effects of AI on our future.
What does AI aim for?
Today, AI is not only aimed at creating the machines that think like human beings. Rather, additional efforts are put in creating the machines that are more intelligent than the creators- the humans.
The myths
As per the popular myths about AI as remarked by Stephen Hawkings, today we control them because we are superior, when the age of automation will be so strong and these robots will be so self-dependent would it be possible for us to control them? Even if we believe what’s wrong in them being self-dependent and uncontrollable when it’s all for our own ease and convenience,then is it all that we should think about? What if these machines acquire evil instincts? What if they become evil and uncontrollable at the same time? The idea is enough to assume that that will be the end of the world.
Key Facts and Statistics
-
According to a survey by Adobe, today only 15 percent of the companies’ have AI facilities.
-
According to Stanford University, the active startup’s number has risen by 1400 percent since the year 2000.
-
According to a survey by Adobe, venture capitalists’ investment into Artificial Intelligence startups has increased sixfold since the year 2000.
-
As per Adobe, AI jobs has risen by 450% since the year 2013.
-
At Monster.com three of the most demanded skills are natural language processing (NLP), deep learning and machine learning (ML).
-
As per International Data Corporation (IDC), import of robots has risen from about 100,000 in the year 2000 to about 250,000 in the year 2015.
Concept of Virtual Reality
Virtual reality is an impression of reality generated using computer technology. A person can primarily...
Concept of Virtual Reality
Virtual reality is an impression of reality generated using computer technology. A person can primarily experience virtual reality on computers through sights and sounds.
Is Virtual Reality for Real?
Most of us have never been on the moon, swum with the dolphins or survived an encounter with lions and sharks. Many of us have never ridden an exceptionally big roller coaster. This is especially for the adventurous people out there who love to do crazy things in life but cannot because they’re too expensive or they don’t have time to fulfill these dreams. Well, the world has always offered us with alternatives and this all is possible to experience without having to leave our home. Virtual reality it is. It’s not exactly real, neither is it a dream. It’s somewhere in between real and unreal. It’s the product of advancements in technology.
The Concept
Let us explain the concept of virtual reality in the simplest way ever!
There’s a gadget made from sensory equipment and high performance technology. It’s called VR headset and we wear it like any other headset.
Instances
Take anything like a motion ride, like a roller coaster, any real place in the world, like a desert, a rainy forest, planet Mars, or take any situation like being chased by a monster in a haunted house. All these examples are just to explain and are not limited, we can just think and pick about anything in the world which is not a part of our surroundings.
The headset gives us the impression that we’re experiencing this all and we’re present where it’s showing us by simulating all these real life scenarios. This can even be anything not confined to the real world but totally imaginary situations as well.
Applications
The most important part about virtual reality is that it is applicable to other areas as well apart from entertainment and gaming. This is where it gets the most interesting.
Simulators equipped with VR technology have been employed in training pilots. These airplane simulators are so accurate and close to the real planes that the pilots are made to encounter every possible disastrous situation involving every likely technical flaw with the airplane helping the pilots to take instant action at right time otherwise even a small error would result in a deadly crash. So imagine how well the pilots can be trained to act confidently in unfavorable situations on a flight because of virtual reality.
Additionally, other than the simulators and headsets, 3D, 4D, 5D, 6D, 7D, 8D and XD cinemas are also created with VR technology, especially the datagloves that come with the built in sensors which is an additional development to the world of VR.
It’s for all
Today we can enjoy the wonderful sight-seeing experience only by grabbing a VR headset by viewing the beauty of Italy and Switzerland while sitting at home. We no more have to limit our hobbies to book reading that no doubt is the best source of entertainment for the booklovers but that is more like exploring the world linearly. It can in no way be compared to the feeling of living the real moments of the story.
If modernization had a face
VR has brought a drastic transformation to the world. Technologists are still working on making the use of this super amazing technology in more advantageous ways and the time is not far when more astonishing developments in the area of virtual reality will be introduced to the world.
Read More: What is Nanotechnology? Advantages and Disadvantages of it
Key Facts and Statistics
-
As per Statista, around 27% of the US consumers were willing to spend more on a virtual reality game than a conventional game in 2017.
-
About 33% of the US consumers tried the virtual reality headset in 2017.
-
Around 92% of the US consumers are aware of the term “Virtual Reality.”
-
About 13% of the consumers in the United States were willing to pay up to $50 for a virtual reality headset in 2017.
-
Around 18% of the US consumers had no interest in virtual reality in 2017.
-
In 2017, about 33% of the US consumers thought that technology was the most interesting aspect of virtual reality.
What is Nanotechnology? Advantages and Disadvantages of it
Nanotechnology is the technology, science and engineering that is conducted, researched, investigated, and experimented at the nanoscale. The nanoscale is the scale of 1 to 100 nanometers. Physicist Richard Feynman is the father of nanotechnology.
Living beings are made from cells where a cell is the smallest unit of an organism. Just like our bodies are made from organs, organs from tissues and tissues from cells; all non-living things are made from atoms. An atom is the smallest particle that can exist in any nonliving object.
The scanning tunneling microscope
There’s no way we can see an atom with our naked eyes. Does it mean that we need a microscope to see atoms? Yes, not the ordinary one but the special microscope invented recently with the tendency to see atoms known as the scanning tunneling microscope (STM) through which scientists could view and study atoms. This helped them to come up with a new science called "Nano-science".
Read more: Basic Ideas of Artificial Intelligence
How does nano-science work?
Nano-science enables the application of smallest particles to create nanotechnology which manipulates molecules and atoms to accomplish increased functioning of nearly all the things existing in the world.
Controlling atoms
Since nanotechnology empowers us to control atoms, this is something regarded as the biggest achievement ever. When atoms are directed to behave the way we like, they can be brought to utility using the smallest possible size of an element by spending just the required amount of resources. Now the things to achieve the same quality or even better quality results can be in much smaller size, lighter weight and greater strength and reactivity.
Historical background
The term nanotechnology was coined by Eric Drexler, an American engineer. The word “nano” is commonly used as a prefix which means something very tiny, minute or small. Literally, it means one-billionth of something, denoted by a 10-9 symbol.However, the concept of nanotechnology was introduced way before it was given its name. It was there when even the STM wasn’t invented and atoms couldn’t be seen with the simple microscope. Richard Feynman, an American physicist in 1959, directly talked about the possibility of an invention that can help manipulate the atoms and molecules and the processes that it can be applied to.
Nano-technology and other sciences
Nanotechnology is like a helping hand to all other fields of science, be it engineering, biology, medical science, chemistry or any subject that involves the utility of atoms. When it builds complete products on an atomic and molecular level, one can imagine the benefits world can derive from it.
Advantages of Nanotechnology
Primarily nanotechnology has the following benefits to offer to the world:
-
It will help in manufacturing the products that will be way cheaper, more functional, energy-saving and lighter in weight. Japan is already investing $750 million a year in nanotechnology. It’s estimated that within the next 15 years, the global market will be making $1 trillion worth of nanotechnology products a year.
-
There will a mindboggling impact of nanotechnology on health where researchers are already working on studying the spread of malaria in the human body using nanotechnology to create its vaccine.
-
Nanotechnology can help to improve the effects of drugs and medicines by making them more functional, cheaper and durable.
-
It promises to provide better water purification techniques and ensure long-lasting distillation measures.
-
Nanotechnology pesticides for crops will directly attack the pathogens in agriculture fields without destroying or causing any harm to the crops. At the same time, it will help in increasing the efficiency of fertilizers.
-
It can help to provide cheaper sources of energy, be it renewable or non-renewable.
-
Disadvantages of Nanotechnology
-
Apart from the merits, there are possibilities that nanotechnology will be a hazard for the environment in a sense that these nanoparticles have the tendency to accumulate in the atmosphere and even in the food chain. Hence, researchers must bring this matter to their consideration to work on the preventive measures of this adverse impact prior to fully implementing nanotechnology in products.
-
Interesting Facts:
-
1 meter = 1,000,000,000 nanometers (1e+9 nanometer)
-
1 inch = 25,400,000 nanometers
-
A single page of newspaper is almost 100,000 nanometer thick.
-
The diameter of a single human hair is 80,000 nanometers.
-
Nanotechnology is built on a scale that is 1000 times smaller than anything you can see with an optical microscope.
-
Nanoscience and nanotechnology are not just limited to one field. It works as a platform that includes or combines biology, physics, chemistry, material science and engineering.
-
; Ouvrir dans un nouvel onglet
We look for comfort, especially while we’re working. To achieve the greatest level of efficiency, organizations make sure... #ergonomics #ergonomics chair #ergonomics of a chair #ergonomics keyboard #ergonomics office chair #ergonomics mouse #ergonomics definition #ergonomics desk #ergonomics desk chair #ergonomics meaning #ergonomics kneeling chair #ergonomics in the office #ergonomics office #ergonomics at workplace #ergonomics in the workplace #ergonomics workplace
Ergonomie au bureau – Aide mémoire
Téléchargez notre nouvel aide-mémoire sur l’ergonomie au bureau
Simple, convivial et rempli d’informations utiles.
Comment ajuster sa chaise de travail ?
Comment bien positionner son écran (hauteur, distance, etc.) ?
Tiroir-clavier ou travail en surface uniforme ?
Quel est l’alternance recommandée entre le travail en position debout et le travail en position assise ?
Toutes ces réponses et bien d’autres…
Bonne lecture !
Ajustement ergonomique du poste de travail informatique
Bien régler et aménager son poste de travail aidera à adopter une posture neutre, confortable et naturelle. Bien régler et aménager son poste de travail aidera à adopter une posture neutre, confortable et naturelle.
-
Cuisses parallèles au sol
Régler l’inclinaison de l’assise de la chaise ou du fauteuil. -
Pieds en appui sur le sol ou sur un repose-pied
Régler la hauteur de l’assise. -
Arrière des genoux dégagé
Régler la profondeur de l’assise pour que la main passe facilement derrière le genou ou spécifier la profondeur appropriée à l’achat. -
Dos droit et bien appuyé
Régler la hauteur, la tension et l’inclinaison du dossier. Il doit respecter les courbes de la colonne. Porter une attention particulière au bas du dos. -
Avant-bras soutenus et épaules détendues
Régler la hauteur et l’espacement entre les accoudoirs pour que les avant-bras soient appuyés sans faire remonter les épaules. -
Coudes au même niveau que le clavier
Régler la hauteur du plan de travail pour que le support-clavier soit au niveau du coude. Le bras plié doit former un angle de 90 degrés et les avant-bras doivent reposer sur les appuie-bras ou sur la surface de travail. La souris doit être près du clavier et à la même hauteur. -
Poignets droits et mains en ligne droite avec les avant-bras
Régler l’inclinaison du clavier à l’aide de ses pattes. -
Moniteur à une distance de lecture confortable
L’écran devrait être à 70 cm, soit environ la longueur d’un bras. Se placer pour que le haut de l’écran soit au niveau des yeux.
Le travail à l’ordinateur est exigeant pour le corps et ses articulations, mais aussi pour les yeux. La proximité de l’écran et sa luminosité fatiguent beaucoup la vue et il est important de la ménager.
Pour réduire la fatigue visuelle, le travailleur de bureau peut :
-
ajuster la luminosité et le contraste de son écran
-
ajuster son écran pour éviter les reflets de lumière
-
autant que possible, disposer son écran de côté par rapport à une fenêtre
-
-
ajuster son écran pour que le haut soit au niveau de ses yeux et qu’il soit à 70 cm (la longueur d’un bras) devant lui
-
placer l’écran un peu plus bas s’il porte des verres progressifs (il doit pouvoir lire le contenu de l’écran sans relever la tête)
-
faire régulièrement l’exercice 20-20-20, qui consiste à regarder un objet situé à 20 pieds pendant 20 secondes toutes les 20 minutes
Le poste de travail permettant l’alternance entre la position assise et la position debout est une option intéressante pour varier les positions de travail et réduire l’exposition aux aspects négatifs de chacune d’elle. Il faut cependant garder en tête qu’une posture statique debout prolongée peut, entre autres, entraîner des inconforts, des douleurs au bas du dos et aux jambes, des problèmes circulatoires et une fatigue générale des muscles posturaux. L’utilisation d’un tapis antifatigue est recommandée.
En l’absence de poste de travail assis-debout, il est possible de profiter malgré tout des bénéfices du travail debout intermittent en prenant fréquemment de courtes pauses, pour aller se chercher un verre d’eau ou s’étirer par exemple, ou en adoptant la position debout lors de certaines tâches, comme faire un appel téléphonique. On en retirera des bénéfices comparables.