Tokenization

Tokenization، توکنایزیشن، توکن‌سازی

Tokenization به عنوان فرآیند جایگزینی یک عنصر داده حساس با یک معادل غیرحساس مانند یک توکن تعریف می‌شود. قابل توجه است که توکن‌ها هیچ معنا یا ارزش بیرونی یا قابل بهره‌برداری ندارند.

مطالب مرتبط با واژه
آخرین واژه‌ها
سبد خرید