Réponses

2014-03-04T18:43:30+01:00

Cette réponse est certifiée

×
Les réponses certifiées contiennent des informations fiables et sérieuses attestées par une équipe d'experts triés sur le volet. Brainly propose des millions de réponses de haute qualité, toutes soigneusement modérées par les membres les plus fiables de notre communauté, mais les réponses certifiées frôlent l'excellence.
Bonjour, je ne suis pas très douée en maths :3. Je vais quand même essayer de te l'expliquer comme je peux ^^ :p!

Alors, tout nombre, lorsque il est mis sous la racine carrée, est toujours plus grand.
En fait, quand on met un nombre sous la racine carrée, ça a pour but de le réduire...
Donc il est forcément plus petit qu'à l'origine... :3

Voilà, je sais pas si mes explications vont t'être très utiles, dis moi si tu ne comprends pas :)!
Ce n'est pas vrai : Calcule la racine carrée de 1/2 ;) Comme 2 < sqrt(2), nécéssairement 1/2 > sqrt(1/2). La relation que tu postule, x > sqrt(x), n'est vraie que pour les réels x supérieurs ou égaux à 1 !
Le but de la racine n'est pas de réduire un nombre : Trouver la racine de x, c'est trouver un nombre qui, mis au carré, redonne x. Ton raisonnement revient à dire que prendre le carré d'un nopmbre l'augmente toujours ; C'est faux par exemple avec 1/2, (1/2)² = 1/4...
merciii a tout le monde
Ah ok ben moi je pensais que c'était ça ^^! De rien Aminpontet...