Stikkord: cot

  • Resonneringsmodeller sier ikke alltid hva de tenker

    Med utviklingen av avanserte språkmodeller har såkalte chain-of-thought-resonnement (CoT) blitt et viktig verktøy for å forbedre både nøyaktighet og transparens. Ved å «tenke høyt» kan modeller forklare hvordan de kommer frem til et svar. Dette gir potensielle fordeler for AI-sikkerhet, fordi vi kan forsøke å overvåke og forstå modellens intensjoner. Ny forskning fra Anthropic utfordrer…