Im Fokus des Versicherungsrechts steht das Verhältnis zwischen Versicherungsgesellschaft und Versicherungsnehmer und umfasst dabei sämtliche Versicherungszweige.
Versicherungen gibt es wie Sand am Meer, nicht jede davon ist verpflichtend. Wir klären, welche Versicherungen es in Deutschland braucht und welche zusätzlich ratsam sind.