Bár több szolgáltatás igyekszik minél sokoldalúbbnak tűnni, maguk a fejlesztők is rendszerint figyelmeztetnek rá, hogy az AI nem tekinthető hivatalos jogi vagy pénzügyi tanácsadónak. A válaszai azokra az információkra épülnek, amelyeket a betanítás során megkapott, vagy amelyek elérhetők az interneten -ezek pedig gyakran nem teljes körűek, elavultak vagy hiányosak lehetnek.
Ráadásul a jogszabályok sem képesek minden élethelyzetet előre szabályozni, ezért a jogalkotó teret hagy a bírói mérlegelésnek. Sokszor nem is a törvényszöveg, hanem a korábbi bírósági gyakorlat ad eligazítást – ezek felkutatásában azonban az AI jelenleg még nem megbízható. A nyilvános ítéletek adatbázisaihoz való hozzáférése korlátozott, és az ilyen típusú keresésben egyelőre jobban teljesítenek a célzott, fizetős jogi adatbázisok.
A hatályosság kérdése is problémás: a mesterséges intelligencia nem mindig jelzi, hogy a hivatkozott jogszabályrészlet még hatályban van-e, és gyakran előfordul, hogy már elavult szöveget idéz. Ez különösen veszélyes lehet speciális, gyorsan változó területeken, mint például az adózás vagy a technikai szabályozás.
Emellett fontos megemlíteni a nagy nyelvi modellek egyik tipikus jelenségét: a meggyőző hangon előadott, de valótlan vagy kitalált információkat. Az AI ugyanis nem tényleges tudással rendelkezik, hanem statisztikai valószínűségek alapján generál szöveget – így akkor is válaszol, ha valójában nem tudja a helyes választ. Ez az úgynevezett „hallucináció” különösen veszélyes lehet jogi ügyekben, ahol a pontosság és a megbízhatóság elengedhetetlen.