Est-il obligatoire d'avoir une assurance automobile aux États-Unis ?
Non, il n'est pas obligatoire d'avoir une assurance automobile aux États-Unis *au niveau national*. Cependant, il est obligatoire dans la plupart des États . Quelques États autorisent les conducteurs à s'auto-assurer, prouvant qu'ils disposent de fonds suffisants pour couvrir les dommages potentiels, mais cela est rare et nécessite généralement une somme d'argent importante. La plupart des États exigent au moins une assurance responsabilité civile.