Greenwashing
Unter Greenwashing versteht man den Versuch von Unternehmen ein grünes Image zu erlangen durch Marketing- und PR-Maßnahmen ohne dabei jedoch wirklich die entsprechenden Maßnahmen auch in der Wertschöpfung zu implementieren. Im Ursprung bezog sich der Begriff auf eine suggerierte Umweltfreundlichkeit. Heute nutzt man den Begriff auch für eine suggerierte Unternehmensverwantwortung.